L’AAAS, American Association for the Advancement of Science, a sorti ses longs couteaux pour discréditer le Professeur Didier Raoult car, à l’évidence, il dérange le super-puissant complexe pharmaco-industriel américain dont l’un des membres et non des moindres puisqu’il s’agit d’Eli Lilly vient d’obtenir de l’Agence Nationale de la Sécurité du Médicament (française) une autorisation temporaire d’utilisation pour un anticorps monoclonal protégeant contre le SARS-CoV-2 version Wuhan, mais inefficace contre les autres souches circulant majoritairement aujourd’hui. Cet anticorps est administré par perfusion et un flacon, dont on ignore la durée de vie dans le sang, coûte 1000 euros pour un traitement. Voici l’article paru sur le site de l’AAAS le 25 février 2020 (doi:10.1126/science.abh2631) que j’ai traduit de l’anglais afin que mes lecteurs comprennent l’ampleur du complot et la bassesse des arguments utilisés par la collaboratrice jurnalistique de l’AAAS Cathleen O’Grady pour ternir l’image du Professeur Didier Raoult. Chaque fois qu’un mot ou une phrase de ce texte m’a dérangé j’ai laissé une note sous forme de numéros entre parenthèses et en caractères gras se reportant à mes remarques personnelles en fin de billet.
« Des revues scientifiques épinglées pour favoritisme ».
Lorsque Didier Raoult a publié l’année dernière plusieurs études prétendant (1) montrer la promesse de l’hydroxychloroquine, un médicament antipaludique, comme traitement du COVID-19, les critiques ont rapidement dénoncé ses méthodes. Raoult, microbiologiste à Aix-Marseille Université, fait maintenant face à des mesures disciplinaires de la part d’un régulateur médical français, et le médicament a été largement discrédité en tant que traitement COVID-19 (2).
Mais certains chercheurs avaient une autre préoccupation : la publication étonnamment prolifique de Raoult dans la revue New Microbes and New Infections, où certains des collaborateurs de Raoult sont éditeurs associés et rédacteur en chef. Depuis la création de la revue en 2013, le nom de Raoult est apparu sur un tiers de ses 728 articles. Florian Naudet, métascientifique à l’Université de Rennes (3), s’est demandé à quel point cet état de fait était commun. Lui et ses collègues ont fait équipe avec la psychologue de l’Université d’Oxford Dorothy Bishop, qui avait développé une méthode pour identifier la paternité prolifique, pour explorer son étendue dans la littérature de recherche biomédicale:
( https://www.biorxiv.org/content/10.1101/2021.02.03.429520v1.full ).
Le groupe a extrait des données sur près de 5 millions d’articles publiés entre 2015 et 2019 dans plus de 5000 revues biomédicales indexées par la US National Library of Medicine’s Broad Subject Terms, qui répertorie les thèmes des revues. Cette méthode n’a pas capturé les revues qui ne sont pas inscrites dans le catalogue avec ces termes de sujet – parmi elles, des revues moins connues telles que New Microbes et New Infections, dit Naudet. Les chercheurs ont ensuite compté le nombre d’articles que chaque auteur avait publiés pour identifier le chercheur le plus prolifique de chaque revue.
Dans la moitié des revues, l’auteur le plus prolifique a publié moins de 3% des articles. Mais 206 revues montraient des valeurs aberrantes, avec un seul auteur responsable de 11% à 40% des articles, rapporte l’équipe dans un pré-imprimé publié ce mois-ci. Bien que bon nombre de ces revues aberrantes soient obscures, certains sont des titres reconnaissables avec des facteurs d’impact importants: le Journal of Enzyme Inhibition and Medicinal Chemistry, le Journal de l’American Dental Association et Current Problems in Surgery. Si de nouveaux microbes et de nouvelles infections avaient été inclus dans l’analyse, le taux de publication de Raoult le placerait dans les 10 journaux les plus aberrants. Raoult et Michel Drancourt, rédacteur en chef de New Microbes and New Infections, n’ont pas répondu aux demandes de commentaires.
Les chercheurs ont également comparé le temps écoulé entre la soumission et la publication et ont constaté que les auteurs prolifiques bénéficiaient d’examens par les pairs plus rapides. Et dans un échantillon aléatoire de 100 des revues aberrantes choisies pour un examen plus approfondi, les chercheurs ont trouvé ce qu’ils considèrent comme une preuve de favoritisme ou, comme ils l’appellent, de « népotisme » : pour environ un quart de ces revues, l’auteur prolifique était le rédacteur en chef de la revue, et dans 61% d’entre eux, l’auteur faisait partie du comité de rédaction (4).
L’étude, qui n’a pas encore fait l’objet d’un examen par les pairs, est « bien faite », déclare Ludo Waltman, bibliométricien à l’Université de Leiden, et soulève des questions sur l’intégrité de la littérature scientifique. La co-auteure de l’étude, Clara Locher, pharmacologue à l’Université de Rennes, note qu’il reste du travail à faire car l’analyse ne montre pas si les articles rédigés par des chercheurs prolifiques de ces revues « népotistes » sont de moins bonne qualité. Naudet dit que demander aux lecteurs aveugles du statut des revues de noter un sous-ensemble d’articles pourrait éclairer cette question.
Mais Waltman met en garde contre les distinctions binaires simples entre les « bonnes » et « mauvaises » revues. Beaucoup tombent dans une zone grise, dit-il, et tracer des lignes claires risque de donner un cachet tacite d’approbation à des revues qui ne dépassent pas un seuil arbitraire mais qui peuvent encore avoir des problèmes importants.
Ce qu’il faut, dit-il, c’est plus de transparence de la part des revues sur leurs processus éditoriaux. Le meilleur moyen pour les revues d’éviter le népotisme, dit-il, serait de publier les commentaires des pairs évaluateurs de chaque article, permettant aux lecteurs de juger par eux-mêmes s’il a été correctement révisé (5).
Mes commentaires. 1. Le Professeur Raoult n’a jamais rien prétendu au sujet de l’HCQ. Il a publié avec ses collaborateurs Philippe Colson et Jean-Marc Rolain en mars 2020 des résultats préliminaires décrivant la très forte baisse de la charge virale avec des malades souffrant du nouveau virus SARS-CoV-2 précocement traités avec de la chloroquine (et non pas de l’HCQ) dans la revue International Journal of Antimicrobial Agents ( https://doi.org/10.1016/j.ijantimicag.2020.105923 ). Ces tentatives ont été appliquées à partir des résultats obtenus par les médecins et biologistes chinois forts de leur expérience accumulée 20 ans pus tôt avec le SARS-CoV-1. 2. Depuis les premiers travaux relatifs à l’HCQ pour traiter les malades souffrant des symptômes provoqués par le SARS-CoV-2 plus de 1000 études et méta-analyses ont montré que l’HCQ était un médicament de choix pour guérir les malades au stade précoce de la maladie mais ne présentait aucun effet pour traiter cette maladie au stade tardif pour les cas graves pour une raison lapidaire : au delà de 15 jours environ suivant la primo-infection la présence du virus est devenue indétectable et la maladie dans ses formes graves est le résultat de ce que l’on a coutume d’appeler l’orage cytokinique accompagné de troubles de la coagulation sanguine. 3. Le dénommé Naudet a-t-il écrit ce pamphlet sur commande ? On peut se poser la question. Dans le cas contraire il devrait se documenter au sujet des mécanismes gérant les publications scientifiques (voir infra).
4. De nombreux scientifiques de renommée internationale font partie de comités de rédaction et de publication de revues scientifiques également de renommée internationales. Cette situation n’a rien à voir avec du népotisme. J’ai moi-même bénéficié de cet état de fait en publiant un article dans la revue Science, un article dans la revue PNAS (Proceedings of the National Academy of Sciences) et un article dans la revue Journal of Biological Chemistry, pour ne citer que quelques-uns d’entre eux, car le coauteur, dernier signataire de ces articles, était le directeur du laboratoire où j’effectuais mes travaux de recherche et il était membre de l’ « editorial board » de ces revues. 5. Enfin les commentaires des « pairs » qui ont relu le manuscrit sont confidentiels et les identités de ces « pairs » ne sont pas communiquées aux auteurs d’un article soumis à publication. Le directeur de la publication se contente le plus souvent d’un résumé des remarques des relecteurs qu’il communique à l’auteur principal en cas de refus de publication. La raison en est simple : il s’agit d’éviter des conflits entre personnes. Il m’est arrivé à de nombreuses reprises lorsque je travaillais aux Etats-Unis de devoir relire un manuscrit soumis à publication. Je devais effectuer ce pensum le week-end et rendre une note au patron le lundi matin. Je me serais trouvé dans une situation particulièrement inconfortable si j’avais été contraint de justifier mes remarques auprès de l’auteur du manuscrit dont j’avais fait l’analyse. La plupart des « patrons » confient à leurs élèves cette lourde tache consistant à relire un manuscrit, ils en reçoivent des dizaines chaque semaine.
Pour conclure mes commentaires je pense que l’article de Naudet et coll. est un pamphlet dirigé contre le Professeur Raoult. Les auteurs semblent méconnaître les pratiques courantes dans les mécanismes de publication rapide de travaux scientifiques. Je serais heureux que le sieur Florian Naudet me fasse personnellement part de ses remarques au sujet de mes critiques.
https://jacqueshenry.wordpress.com/2021/03/06/il-faut-defendre-le-soldat-raoult/
Depuis un an tous les scientifiques ont reconnu l'hydro-chloroquine comme étant un remède pouvant apporter une solution à l'épidémie (appelée 'pandémie' par les merdias alors que le corona a moins fait de décès qu'une grippe annuelle !). Mais, les non-scientifiques (les politiciens et leurs merdias) se sont auto-proclamés en savoir plus que les scientifiques sans avoir fait eux-mêmes d'études scientifiques !!!
RépondreSupprimerReste qu'en un an on ne compte plus les vidéos supprimées/censurées qui osaient dire la vérité !! sans parler de rencontrer et dialoguer avec les scientifiques !!! (voir les dernières d''Hold'Up' effacées de la toile !).
Tout est fait contre la Démocratie de parler librement comme de fausser des élections reconnues corrompues avec le concours de 'machine-à-voter' au bénéfice de la dictature.
La légende du golf Jack Nicklaus jette un doute sur le nombre de décès dus aux coronavirus
RépondreSupprimerVendredi 05 mars 2021
par: Nolan Barton
(Natural News) La légende du golf, Jack Nicklaus, a raconté une fois l'histoire de deux personnes qu'il connaît dont les parents sont morts d'autre chose que le coronavirus (COVID-19). Selon Nicklaus, on leur a demandé si la cause du décès de leurs parents pouvait être changée en COVID-19. Ils ont refusé.
«L'hôpital reçoit plus d'argent avec la mort COVID qu'avec un autre décès. Je suis sûr qu’il y en a eu beaucoup », a déclaré Nicklaus, 18 fois vainqueur de championnats majeurs. «Je ne pense pas que les décès soient un nombre correct. Je déteste dire ça.
Au moment d'écrire ces lignes, le nombre de morts du COVID-19 aux États-Unis est fixé à 518000.
Un article récent publié par Waking Times semblait être d'accord avec Nicklaus.
«Le nombre de cas de COVID a été simulé de diverses manières», indique l'article. «De loin, la stratégie la plus étendue est le réétiquetage. La grippe s'appelle COVID. »
Nicklaus, 81 ans, et sa femme, Barbara, ont tous deux été testés positifs au COVID-19 en mars de l'année dernière. Il a eu mal à la gorge et toux alors que Barbara était asymptomatique. Il a déclaré que les symptômes avaient disparu deux jours après avoir pris de l'hydroxychloroquine, qui est normalement utilisée pour prévenir ou traiter le paludisme causé par les piqûres de moustiques. Il n'y avait aucun moyen de le savoir maintenant, mais le résultat de leurs tests à l'époque pourrait en fait être faux positif.
«Obtenir un faux positif est aussi simple que de la tarte», dit l'article. «Tout ce que vous avez à faire est d'exécuter le test à plus de 35 cycles. La plupart des laboratoires exécutent le test à 40 cycles. Un cycle est un bond en avant dans le grossissement de l'échantillon sur écouvillon prélevé sur le patient. Lorsque vous exécutez le test à plus de 35 cycles, des faux positifs se déversent comme l'eau d'un tuyau d'incendie. »
Un simple cas de grippe peut finir comme un cas de COVID-19 enregistré
L'article suggère essentiellement qu'un simple cas de grippe pourrait finir par être un cas de COVID-19 enregistré.
«Avec des symptômes grippaux ordinaires et un test PCR faux positif… voilà, vous avez un cas de COVID», dit l'article.
Le test PCR fait référence au test de réaction en chaîne par polymérase, qui est considéré comme le «gold standard» dans la détection du SARS-CoV-2 - le virus qui cause le COVID-19. L'article est allé plus loin pour distinguer un cas de grippe des autres maladies. Les Centers for Disease Control and Prevention (CDC) avaient l'habitude de dire à la presse que 36 000 personnes aux États-Unis meurent chaque année de la grippe, mais l'article citait un rapport du chercheur Peter Doshi pour réfuter cette affirmation.
«[Selon les statistiques du CDC],« la grippe et la pneumonie »ont fait 62 034 morts en 2001, dont 61 777 imputables à la pneumonie et 257 à la grippe, et dans 18 cas seulement le virus de la grippe a été identifié de manière positive», a déclaré Doshi dans son rapport qui a été publié en ligne par le British Medical Journal en décembre 2005.
RépondreSupprimerL'article a noté que le CDC crée une catégorie globale qui combine à la fois les décès dus à la grippe et à la pneumonie. «Le CDC a supposé à tort que les décès par pneumonie étaient des complications résultant de la grippe», indique l'article. Cette hypothèse était loin d'être. Comme indiqué dans le rapport de Doshi, seuls 18 cas parmi les 62 034 décès enregistrés sous la grippe et la pneumonie ont révélé la présence d’un virus grippal. Il devrait être multiplié par 2 000 pour atteindre le chiffre flotté par le CDC.
Cela étant, l'article dit: «Nous pouvons maintenant dire: de très nombreux cas de FAKE FLU sont rebaptisés FAKE COVID.»
L'argent est la racine de tout mal
L'article affirmait que «le cartel médical commercialise un grand nombre de maladies dites uniques - chaque maladie ayant une prétendue cause spécifique: virus A, virus B, virus C.»
Pour chaque maladie, il doit y avoir des médicaments très rentables pour la guérir; et pour chaque virus, il doit y avoir des vaccins très rentables pour le combattre.
«Quand le moment est venu, le cartel médical peut même prétendre qu'un nouveau germe décime le monde, et il doit« détruire le village pour le sauver »», indique l'article.
Dans une certaine mesure, la communauté médicale pourrait en fait gagner de l'argent en réétiquetant d'autres maladies avec COVID-19. (Connexes: le chef du CDC admet que les hôpitaux ont une «incitation perverse» à gonfler les décès dus aux coronavirus.)
L'ancien sénateur Scott Jensen, médecin du Minnesota, a affirmé que les hôpitaux étaient payés plus si les patients de Medicare étaient répertoriés comme ayant le COVID-19 et qu'ils recevaient trois fois plus d'argent s'ils avaient besoin d'un ventilateur. Son affirmation a été publiée le 9 avril de l'année dernière par le Spectator, une publication conservatrice.
Le 19 avril de l'année dernière, Jensen a doublé son affirmation par vidéo sur sa page Facebook.
RépondreSupprimerJensen a déclaré: «Les administrateurs de l'hôpital pourraient bien vouloir voir le COVID-19 joint à un résumé de sortie ou à un certificat de décès. Pourquoi? Parce que s'il s'agit d'une simple pneumonie de jardinage pour laquelle une personne est admise à l'hôpital - si elle est Medicare - généralement, le paiement forfaitaire de groupe lié au diagnostic serait de 5 000 $. Mais s'il s'agit d'une pneumonie au COVID-19, alors c'est 13 000 $, et si ce patient atteint de la pneumonie au COVID-19 se retrouve sous respirateur, cela monte à 39 000 $. "
Selon Jensen, son état d'origine, le Minnesota, ainsi que la Californie, ne répertorient que les diagnostics COVID-19 confirmés en laboratoire. Mais certains États, en particulier New York, énumèrent tous les cas présumés, ce qui est autorisé en vertu des directives du CDC à la mi-avril de l'année dernière et qui entraînera un paiement plus important.
Sources include:
Yahoo.com
WakingTimes.com
USAToday.com
https://www.naturalnews.com/2021-03-05-nicklaus-casts-doubt-on-covid-death-toll.html
Plus de 1170 personnes sont décédées après des vaccins contre le coronavirus aux États-Unis seulement (jusqu'à présent)
RépondreSupprimerVendredi 05 mars 2021
par: Ethan Huff
(Natural News) Les Centers for Disease Control and Prevention (CDC) des États-Unis enquêtent sur la mort d'un homme du Nebraska décédé peu de temps après avoir été injecté pour le coronavirus de Wuhan (Covid-19).
Rejoignant les plus de 1170 autres cadavres qui ont également signalé au CDC et à la Food and Drug Administration (FDA) des décès après la vaccination, l'homme, qui était à la fin de la quarantaine, venait de recevoir sa première dose de Pfizer et BioNTech's China. vaccin contre le virus, qui a reçu l’approbation d’urgence l’année dernière dans le cadre du programme «Operation Warp Speed» de Donald Trump.
L'homme vivait dans un établissement de soins de longue durée et les médias traditionnels ont rapidement remarqué qu'il avait «plusieurs maladies et affections coexistantes». Si l'homme avait simplement été testé «positif» aux germes chinois, cependant, les médias auraient ignoré ces maladies et conditions coexistantes et blâmé son test «positif» sur les personnes qui ne portent pas de masques.
«En règle générale, les décès dus au vaccin Covid-19 peuvent être attribués à l’anaphylaxie et surviennent dans un délai relativement court après l’administration du vaccin, c’est pourquoi une surveillance est effectuée», a déclaré le Dr Gary Anthone, médecin-chef du Nebraska.
«Bien que je ne puisse pas spéculer sur ce cas, lorsque des personnes meurent des jours ou des semaines après l'administration du vaccin, cela est plus probablement dû à d'autres facteurs sous-jacents», a-t-il ajouté.
En d'autres termes, Anthone joue le jeu du politiquement correct en ce qui concerne la vaccination contre Covid-19. Le coup est sûr et efficace, affirme l'établissement, ce qui signifie que tout décès signalé doit avoir été causé par autre chose.
Le décès de l’homme a été signalé dans le système gouvernemental de notification des événements indésirables liés aux vaccins (VAERS), qui suit les blessures et les décès causés par les vaccins. On pense que VAERS ne capte que moins d'un pour cent de toutes les blessures et décès causés par les vaccins.
«Ce processus permet au CDC et à la FDA de surveiller de près et d'évaluer tout événement indésirable, pour des évaluations de sécurité en cours», a expliqué le département de la santé de l'État du Nebraska dans un communiqué.
260 fois plus de jeunes meurent des vaccins contre le coronavirus que du coronavirus
Comme prévu, le CDC tente de convaincre le public que les vaccins contre le virus chinois ne sont pas liés à ces types de décès. La société privée se faisant passer pour une agence gouvernementale affirme qu'il n'y a pas de modèle de mort associé aux coups.
Pendant ce temps, Anthone avertit les personnes souffrant de «maladies à haut risque» de consulter d'abord leurs prestataires médicaux avant d'accepter de se faire vacciner contre l'infection chinoise.
RépondreSupprimerL'homme du Nebraska maintenant décédé appartenait à la catégorie d'âge la plus jeune, c'est-à-dire les moins de 65 ans, que le ministère israélien de la Santé a récemment déterminé comme présentant un risque extrêmement faible de mourir du virus lui-même.
En fait, les données montrent que 260 fois plus de jeunes meurent des coups que le virus ne le ferait, ce qui rend les coups totalement inutiles et extrêmement dangereux.
Les gens feraient bien mieux de vivre leur vie, de renforcer naturellement leur système immunitaire et d'éteindre la télévision et les médias sociaux. En faisant cela, ils éviteront de devenir la proie des incessantes rumeurs médiatiques à propos du virus et de la prétendue nécessité de se faire vacciner immédiatement afin de l'arrêter.
«Le raisonnement insensé d’aujourd’hui propose: prenez un« remède »qui est bien pire que le« mal »», a écrit l’un de nos propres commentateurs avisés. «Regardez ce qu’ils font ces jours-ci: l’inoculation invasive de poisons destinés à infliger des maladies aiguës et chroniques à vie.»
«Et les Sheeples portent leurs masques pour soutenir silencieusement, quoique idiote, ce sinistre complot. Il est en effet dangereux de s'exprimer isolément, mais nous, le peuple en masse, prévaudrons parce que nous sommes le bien qui triomphera du mal.
Pour vous tenir au courant des derniers chiffres sur les blessures et les décès causés par les vaccins contre le coronavirus de Wuhan (Covid-19), consultez Pandemic.news.
Les sources de cet article incluent:
CNBC.com
NaturalNews.com
https://www.naturalnews.com/2021-03-05-1170-deaths-coronavirus-vaccines-us-alone.html
Guardian promeut le «verrouillage mondial» tous les deux ans pour lutter contre le changement climatique
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 06 MAR 2021 - 8:10
Rédigé par Steve Watson via Summit News,
Le London Guardian a suggéré que des verrouillages mondiaux seraient nécessaires tous les deux ans afin de sauver la planète.
Le point de vente a utilisé le titre alarmiste (maintenant modifié) «Verrouillage mondial tous les deux ans nécessaires pour atteindre les objectifs de Paris en matière de gaz carbonique - étude».
L'article fait référence à une étude publiée dans la revue Nature par une équipe de chercheurs de l'Université d'East Anglia, qui a conclu que les émissions de gaz carbonique doivent baisser du même montant qu'au cours de la récente période de verrouillage «environ tous les deux ans» pour pour compenser le réchauffement climatique.
L’étude n’a pas préconisé des verrouillages mondiaux pour y parvenir, malgré le titre trompeur du Guardian. En fait, il appelait à des «méthodes complètement différentes».
Le titre a été changé pour devenir un peu moins alarmiste: «L'équivalent de la baisse des émissions de Covid est nécessaire tous les deux ans - étude» après une réaction violente.
Après que de nombreux alarmistes climatiques ont commencé à vanter les vertus environnementales des verrouillages l'année dernière, nous avons averti que les verrouillages climatiques deviendraient une chose:
Le Guardian a également une histoire d'alertes climatiques alarmistes exagérées, ayant précédemment rapporté que d'ici 2020, nous verrions des «millions» de morts, de grandes villes européennes coulées et une guerre nucléaire due au réchauffement planétaire.
L'appel alarmiste du journal au verrouillage intervient quelques jours après que le Forum économique mondial a été critiqué pour avoir loué les effets des verrouillages sur les villes:
Le WEF avait publié une vidéo faisant l'éloge du «silence» et de l'air pur en raison du manque de personnel, mais a ensuite supprimé le message après que les utilisateurs des médias sociaux aient souligné que les villes ne sont pas censées être calmes et que les verrouillages laissent beaucoup de personnes confrontées à des difficultés financières extrêmes .
https://www.zerohedge.com/geopolitical/guardian-promotes-global-lockdown-every-two-years-combat-climate-change
Une tempête hivernale dévastatrice a fait des ravages sur les pêcheries du Texas - mais ce n'est pas nouveau
RépondreSupprimerVendredi 05 mars 2021
par: Divina Ramirez
(Natural News) La tempête hivernale qui a balayé le Texas le mois dernier a pris de l'électricité, coupé l'eau et fait des morts. Cela a également entraîné la mort de poissons sur toute la côte du Texas. Mais des événements de destruction de poissons comme celui-ci n'ont rien de nouveau dans le Lone Star State.
En fait, les documents historiques ont montré que le Texas a eu sa juste part de ces événements de mortalité de poissons en raison de températures record. David Shormann, un chimiste marin basé à Magnolia, au Texas, l'a dit dans un article récent.
Dans son article, Shormann a souligné que le gel-kill du mois dernier était similaire aux événements dévastateurs de gel-kill côtiers de 1983 et 1989, qui ont entraîné la mort de six à 14 millions de poissons. Shormann a ajouté qu'il s'attend à ce que le nombre de morts du gel du mois dernier se situe dans cette fourchette, sinon juste au-dessus.
Shormann a également cité le rapport du Texas Parks and Wildlife Department (TPWD) de 1996, qui avait annoté plus de 20 événements de gel-tuer survenus au Texas depuis 1527.
Une conclusion du rapport est que des événements majeurs de gel-kill se sont produits tous les 10 à 15 ans depuis les années 1800. Des événements mineurs de gel-kill se sont également produits après 1989, mais aucun événement majeur ne s'est produit au cours des plus de trois décennies qui ont précédé l'événement de 2021. Shormann a expliqué que cet intervalle de temps est bien au-dessus de la moyenne.
Mark Fisher, le directeur scientifique des pêches côtières à TPWD, a également déclaré que le gel de 1983 et les événements de gel-kill de février et décembre 1989 sont devenus les repères pour les gel-kills parce qu'ils étaient bien pires. Ils ont entaché les pêcheries côtières et changé la façon dont elles étaient gérées pour les années à venir, a ajouté Fisher.
Depuis lors, la pêche au Texas a été exceptionnelle pour les espèces de poissons côtières comme la truite mouchetée et le sébaste. De plus, les populations de tortues marines de la région ont explosé depuis.
Mais la bonne nouvelle est que les pêcheries reprendront. Les pêcheurs peuvent désormais utiliser des drones pour évaluer les dégâts de l'événement ou s'adresser aux plateformes de médias sociaux pour encourager les techniques de conservation comme la pêche avec remise à l'eau pour le moment.
Une autre raison pour laquelle les pêcheries se rétabliront est que le Texas disposait d'un tampon pour le gel-kill, a déclaré Fisher. Les eaux sont relativement chaudes et sont restées entre 60 et 70 degrés Fahrenheit dans la plupart des régions. De plus, le Texas n'a vu l'air froid que plusieurs jours plus tard. «[Nous] avons eu un temps de recharge relativement graduel», a ajouté Fisher.
RépondreSupprimerDans l’ensemble, l’histoire des événements gel-tuer au Texas pourrait offrir des informations inestimables aux scientifiques qui examinent les tendances climatiques et prévoient les résultats climatiques futurs. Et selon Shormann, cette histoire est l'une des meilleures preuves que le changement climatique n'est pas une menace imminente.
Shormann a terminé son article avec une prédiction que les Texans verront un autre événement majeur de gel-kill au cours des 30 prochaines années. Mais la catastrophe climatique ne le sera pas, a-t-il ajouté.
La soi-disant «catastrophe climatique» n’a pas lieu
En soulignant que les événements de gel-tuer au Texas ne sont pas nouveaux, Shormann a cherché à faire valoir un argument contre le soi-disant changement climatique, qui, selon la plupart des alarmistes climatiques, était la raison de la vague de froid au Texas. Certains alarmistes climatiques ont même accusé le réchauffement présumé du cercle polaire arctique de la météo hivernale au Texas.
Le changement climatique n'est pas une menace imminente, a déclaré Shormann. Certains experts seraient d'accord. Fritz Vahrenholt, l'un des fondateurs du mouvement environnemental moderne allemand, a déclaré que la soi-disant «catastrophe climatique» que les alarmistes climatiques prévoyaient de culminer dans les 12 ans «n'a tout simplement pas lieu».
Au contraire, Vahrenholt a déclaré que les humains ont encore environ trois générations de temps pour faire pression pour des sources d’énergie propres. Il a également cité le fait que le soleil n'a jamais fait preuve d'une telle activité au cours des mille dernières années qu'aujourd'hui. La planète était également plus chaude de trois degrés Celsius lorsque la civilisation a commencé.
Il n'y avait pas de point de basculement à l'époque, et il n'y a aucun signe clair qu'il y en aura un à l'avenir, a-t-il ajouté. (En relation: le mouvement activiste «Changement climatique», rien de plus que le mythe des années 1970 renommé.)
Allez sur FakeScience.news pour lire plus d'articles sur le réchauffement climatique et autres canulars.
Les sources comprennent:
WattsUpWithThat.com 1
WattsUpWithThat.com 2
HoustonChronicle.com
TheGuardian.com
https://www.naturalnews.com/2021-03-05-winter-storm-freeze-fish-nothing-new.html
Nous sommes tous des Européens maintenant
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 06 MAR 2021 - 7:00
Rédigé par Tom Luongo via Gold, Goats, blog 'n Guns,
Les États-Unis ont cessé d'être tout type de gouvernement représentatif en 2020.
Et c’est exactement ce que veulent les totalitaires en Europe.
Le moment où la Cour suprême a renoncé à sa responsabilité de reconnaître même la plainte du Texas contre la Pennsylvanie a été le moment où le vernis de l'autorité constitutionnelle à D.C. a été supprimé.
La Cour étant confinée dans l'asservissement politique et la présidence et le législateur garantis, il ne reste plus rien de tout «poids et contrepoids» constitutionnel à Washington DC.
Maintenant que la Chambre contrôlée par les démocrates en a fini de s'embarrasser avec une impeachment simulé de Donald Trump, ils peuvent maintenant prendre au sérieux la consolidation du pouvoir de manière à ne jamais y renoncer.
Il s’appelle H.R.1 et c’est, pour reprendre les mots de John Fund: «C’est la pire loi que j’aie jamais vue en 40 ans de reportage depuis Washington.»
Je n’entrerai pas dans les détails ici, Fund fait un excellent travail de les décrire, avec Zerohedge. Et si cet avortement d'un projet de loi passe par une obstruction systématique au Sénat n'est pas pertinent.
Ce qui est pertinent, c'est que ce projet de loi est une longue liste de changements apportés au système électoral des États-Unis pour garantir un régime de parti unique pour ce qui reste de la durée de vie des États-Unis en tant que pacte de 50 entités entre égaux.
Oh, je suis désolé, ce n’est pas correct, car aucun des membres actuels de la Cour suprême ne croit que c’est ce que sont les États-Unis, un pacte d’égaux.
Si l’un d’entre eux l’avait fait, il aurait plaidé pour le droit du Texas de poursuivre la Pennsylvanie en justice pour ses modifications de la loi électorale et aurait entendu l’affaire sous la juridiction d’origine du tribunal.
Même s’ils avaient rejeté l’affaire sur ses mérites, cela aurait été quelque peu acceptable, mais refuser de l’entendre était une insulte pour quiconque connaissait de façon passagère la Constitution.
Ce que la Présidente Nancy Pelosi a fait avec ce projet de loi, c'est de montrer au monde entier que DC est gouverné et exploité par une mafia. Et cette mafia travaille pour sa propre amélioration, pas pour ceux sur lesquels elle règne.
C’est le message très clair depuis les élections. Parce que les résultats des élections non contrôlés par la mafia de D.C. sont verboten.
Surtout maintenant que le plan visant à démolir et à «reconstruire mieux» l’économie mondiale est en cours. Rien d'aussi farfelu et plébéien que la démocratie et la participation civile ne peut être toléré lorsque de tels plans sont en cours d'élaboration.
RépondreSupprimerLes Américains reçoivent tout juste le mémo que les Européens ont reçu à plusieurs reprises au cours des deux dernières générations. Les paroles de l'ancien président de la Commission européenne, Jean-Claude Juncker, résonnent dans les couloirs du siège fabuleusement laid de l'UE à Bruxelles.
«Il ne peut y avoir de choix démocratique contre les traités européens.»
C'était donc en novembre et ce sera donc en 2022 et 2024. Si nous avons appris quelque chose de 2020, c'est que rien n'est hors de propos dans la poursuite de légitimer une prise de pouvoir nue.
Les Pols de DC peuvent se dire que Trump était un cinglé délirant tout ce qu'ils voulaient. Ils peuvent faire répéter leurs quislings dans les médias qui mentent à l'infini dans l'espoir que quelqu'un le croirait réellement. Ils peuvent émettre des avertissements sans fin sur le terrorisme intérieur de la part de ceux qui savent dans leur cœur que leur voix leur a été volée.
Ils peuvent convaincre ceux qui sont trop lâches ou naïfs d'admettre la vérité sur ce qui s'est passé, mais ils ne peuvent ignorer les conséquences de leurs actes.
Le fait de gouverner par la force est une auto-négation de la légitimité de la règle elle-même. Forcer les gens à accepter votre vision de l'avenir invalide littéralement la vision. Parce que si vos idées avaient du mérite, vous n’auriez pas à forcer les gens à les respecter.
C’est pourquoi l’Union européenne est conçue telle quelle. Il n'y a pas de pouvoir conféré à la partie démocratique de l'Union. Le parlement européen n'a pas de pouvoir réel, seulement un pouvoir consultatif.
Le vrai pouvoir appartient à la Commission européenne non élue et à la direction de la Banque centrale européenne. Leurs décisions sont approuvées par la Cour européenne de justice dont le nom est, au mieux, une blague malsaine.
Nous avons un président qui prend ses fonctions sous des doutes sincères quant à l'élection. Refus catégoriques de ceux qui le soutiennent de même entretenir l'idée qu'il y avait quelque chose qui n'allait pas du tout dans les résultats des élections.
Si tel est le cas, pourquoi avons-nous même besoin de ces changements? Si Pelosi et sa société ont remporté cette élection juste et équitable (ce qu'ils n'ont pas fait), alors quelle est la précipitation pour proposer H.R.1 en premier lieu ?
Je pose ces questions en sachant très bien que H.R.1 ne passera jamais un Sénat où l'obstruction systématique a été récemment défendue par l'opposition contrôlée connue familièrement sous le nom de GOP.
RépondreSupprimerMais le bébé d’ancrage de Pelosi n’est pas destiné à passer sous sa forme actuelle. Il est censé commencer le Straussian Two Step obligatoire à chaque mauvaise idée de DC.
Répétez après moi: Thèse-Antithèse-Synthèse.
Ce projet de loi est la thèse. Le GOP fera de l'obstruction pour l'Antithèse et ils finiront par s'entendre sur quelque chose qui ressemble à un compromis mais qui sera fondamentalement pire.
Si vous vous êtes déjà demandé pourquoi nous adoptons une législation aussi épouvantable sur à peu près toutes les questions, vous connaissez maintenant le mécanisme.
Et peu importe que les États adoptent des modifications de la loi électorale pour durcir leurs élections par rapport à ce qui s'est passé l'automne dernier. Finalement, D.C. prescrira que c'est ainsi que les élections fédérales sont gérées.
Et si un État ne se conforme pas à ces changements, des sanctions asymétriques seront infligées en retenant le financement.
C'est la même chose que la Hongrie s'est battue bec et ongles pour s'arrêter dans l'accord de secours COVID dans l'UE, pour maintenir la souveraineté nationale et les lois et le financement nationaux séparés.
Le fait est, en fin de compte, que l’administration Biden et les démocrates agissent très rapidement pour refaire ce pays à l’image autocratique de l’Europe.
Parce que le Straussian Two Step est trop inefficace pour la foule de Davos. La manière européenne est une forme de contrôle beaucoup plus efficace.
Ils doivent le faire par des moyens différents, avec un langage différent, «protégeant la privation du droit de vote des électeurs», mais le résultat final est exactement le même - un gouvernement central qui émet des décrets que les États vassaux doivent respecter en ignorant les désirs ou les voix des gens. règne sur.
Il y a quelques semaines, je vous ai demandé: «Que se passe-t-il après The Churn ?» Que se passe-t-il lorsque les règles du jeu de survie changent si rapidement que nous n'avons plus de cadre pour donner un sens au monde dans lequel nous vivons.
H.R.1 représente l'un de ces éléments constitutifs post-Churn d'un monde que nous reconnaîtrons bientôt à peine. Le pire, c'est que beaucoup de gens l'applaudiront plutôt que de retourner dans le chaos du vieux monde.
https://www.zerohedge.com/geopolitical/were-all-europeans-now
Pourquoi les dictateurs ne désirent que faire du mal au Peuple ? Pourquoi cet acharnement soutenu par leurs merdias ? Pourquoi un nano groupuscule sorti des Ecoles du Crime refuse t-il d'écouter le Peuple ?
SupprimerParce qu'en Démocratie ils ne pourraient plus rien dire ni faire ! Il faudrait qu'à chaque proposition ils acceptent l'avis de millions de personnes !
La "peur'' est le nouveau "intelligent''
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 06 MAR 2021-11: 20
Rédigé par Raul Ilargi Meijer via le blog The Automatic Earth,
Le Washington Post a déclaré récemment: «Le mouvement anti-vaccin est comparable au terrorisme intérieur et doit être traité de cette façon», alors que le Guardian avait ceci:
«Lorsqu'il s'agit de changer les attitudes à l'égard des vaccins, il est essentiel de faire la distinction entre les campagnes d'information du public qui visent à éduquer le public et celles qui cherchent à le persuader», a déclaré Philipp Schmid, un spécialiste du comportement recherchant le scepticisme vis-à-vis des vaccins à l'Université d'Erfurt. «[..] si vous ne vous attaquez pas du tout au problème de manière proactive, vous finissez par rattraper les anti-vaxxers. D'une certaine manière, les gouvernements doivent travailler sur un déploiement parallèle de vaccins - immuniser le public contre le déni de la science. "
Mais la porte-parole de l’OMS, Margaret Harris, a déclaré: «Il est très important que les gens comprennent qu’à l’heure actuelle, tout ce que nous savons sur les vaccins, c’est qu’ils réduiront très efficacement votre risque de maladie grave. Nous n'avons encore vu aucune preuve indiquant s'ils arrêtent ou non la transmission. " Et le Dr David Martin a déclaré: C’est une thérapie génique, pas un vaccin. On pourrait ajouter: ce n’est pas de la science, c’est un travail de vente.
Maintenant, je ne sais pas exactement à qui le WaPo se réfère quand ils disent "le mouvement anti-vaccin", ou ce type allemand avec "les anti-vaxxers", mais il semble qu'il y ait un mouvement généralisé en cours pour promouvoir les vaccins à ARNm , à la fois par les gouvernements et par la presse. Et nous ne sommes pas censés poser des questions. Eh bien, je suis désolé, mais je gagne ma vie en posant des questions. Et je pense que poser des questions n’est pas seulement le droit de tout le monde, c’est une obligation. Alors ne me parlez pas de «terrorisme domestique» ou «anti-vaxxers», un terme qui n’a rien à voir avec le sujet au départ. Poser des questions n'est pas la même chose qu'être contre quelque chose.
En substance, les substances ARNm Pfizer et Moderna sont une expérience géante, rien d'autre. Si vous pouvez me dire quelle est la logique derrière l’injection - bientôt - de centaines de millions de personnes avec quelque chose à propos duquel l’OMS elle-même dit: «Nous n’avons encore vu aucune preuve indiquant s’ils arrêtent ou non la transmission», essayez-moi. Et comment passer de là à la délivrance de «passeports vaccinaux» est aussi déroutant que toute la campagne de propagande. Qui s'engage ici dans le «déni de la science»? Dans son essence, une autorisation d'utilisation d'urgence n'est pas scientifique.
Un vaccin signifiait autrefois quelque chose qui reposait sur du matériel viral - presque mort - pour amener votre corps à produire un «matériel» d'immunité. Ce que fait l'ARNm - dans ce cas - est de forcer votre corps à produire une protéine de pointe S1, qui est toxique pour votre corps. Quelqu'un l'a comparé à la mise en place d'une clé USB dans votre corps, mais vous ne pourrez plus jamais la retirer. En fait, cela ressemble plus à insérer une telle clé USB dans presque toutes les cellules de votre corps. Pour toujours.
RépondreSupprimerCela peut-il réussir ? Peut-être, mais nous n'en avons aucune idée. Aucune recherche. Aucune idée de ce que fait l'ARNm à long terme. Il y a beaucoup d'inquiétude quant à ce que cela pourrait faire à notre système immunitaire. Donc beaucoup de questions. Mais nous ne sommes pas autorisés à poser ces questions, car nous sommes alors des terroristes nationaux. Ou peut-être pouvons-nous leur demander, mais seulement après avoir été vaccinés.
Il y a là une étrange similitude avec l'interdiction de Huckleberry Finn, de l'Odysseus et du Dr Suess. On ne peut apparemment plus faire confiance à nous pour former nos propres opinions. Et si nous appliquons les mêmes règles qui ont fait interdire Mark Twain et le Dr Suess, comment diable la Bible peut-elle rester politiquement acceptable? Je suis sûr qu’ils y parviendront encore.
Et la presse contribue à façonner ce nouveau monde, et Big Tech devient Big Brother. Il n’ya rien de plus que des journalistes ou des «gardiens» des médias sociaux dans la vingtaine que de vous dire ce que vous pouvez voir, entendre, lire ou penser, et je parie que vous n’avez jamais imaginé que c’est ce que George Orwell a imaginé. Ou Mark Twain, d'ailleurs. Il n'y a pas de réelle différence entre interdire les livres et les brûler.
La façon dont cela nous est diffusé, c'est que les substances ARNm sont sûres, sur la base du fait que peu de personnes sont mortes d'avoir été «vaccinées». Mais non seulement les effets à court terme ne sont pas la principale préoccupation à leur sujet, mais il y a déjà beaucoup de titres comme celui-ci:
Les blessures signalées au CDC après la hausse des vaccins COVID de 4000 en une semaine
34 fausses couches spontanées, mortinaissances après la vaccination COVID-19
Danger des vaccins ARNm chez les personnes âgées: 16 décès en Suisse
La Norvège met en garde contre le risque du vaccin Covid-19 après 23 décès
Quand on voit qu’en Allemagne, en France et en Suisse, la moitié des travailleurs des foyers de soins ne veulent pas se faire vacciner, il est peut-être bon de poser une question. Ou que diriez-vous de ceci: «Environ 60 % du personnel des foyers de soins ont refusé les vaccins Covid, déclare Walgreens Exec», à propos de laquelle Whitney Webb a tweeté: «Je me demande simplement si les gens considèrent que 60 % du personnel des foyers de soins et 1/3 des soldats américains refusent le le vaccin expérimental COVID-19 sera tous des «théoriciens du complot anti-vaxxer fous»
RépondreSupprimerJe dois apparemment avoir peur de ce que la lecture de Huck Finn ou de l'Odysseus me fera, à mon cerveau, au cerveau de mes enfants et de mes voisins. Mais je n'ai pas du tout peur de cela, je pense que les livres enrichiront leur cerveau, comme ils ont le mien, et je suis convaincu qu'ils seront capables de comprendre ce qui est juste et juste dans les mots qu'ils lisent, et ce qui n'est pas.
Je ne suis pas trop préoccupé par Covid19, mais j'adopte une approche prudente. Ce qui signifie prendre vit. C&D et zinc, avec l'ivermectine dans mon futur proche. Mais cela ne règle pas ma vie, certainement pas autant que les verrouillages d’Athènes. Et franchement, j'ai plus peur de coller une clé USB génétique qui génère du matériel génétique non testé dans mon corps pour le reste de ma vie, que je suis d'un virus qui est peu susceptible de me tuer.
À présent, nous devrions nous demander ce que le fait d'être gouverné par la peur pendant une période prolongée fait à l'état d'esprit non seulement des individus, mais de sociétés entières. Eh bien, d’une part, il est beaucoup plus facile de censurer les pensées et les actions des gens, de façonner leur vie avant qu’ils ne le fassent eux-mêmes. Ayez très peur, retroussez votre manche et ne posez pas de questions. Et si vous vous comportez comme nous vous le disons, vous pourrez peut-être, dans un an, ou deux, trois, revenir à «l'ancienne normale».
Ce qui malheureusement n'existera certainement plus une fois que vous y serez. Votre société ressemblera plutôt à une zone de guerre parce que son économie a été ravagée par la peur. D'une part, s'ils autorisent la réouverture des magasins, bars, restaurants cet été (douteux), c'est peut-être parce qu'ils ne peuvent plus se permettre le soutien d'urgence aux entreprises et aux travailleurs. La toute première chose qui se produit alors, ce sont les licenciements massifs. Ce qui entraînera la fermeture d'un plus grand nombre d'entreprises et de licenciements.
Tout cela dure trop longtemps. Pour nos économies, nos sociétés et nos esprits. Et ne serait-ce que pour nous aider à (re) couvrir, nous devrions nous poser des questions. C’est une obligation.
J'aime ceci de John Scott Lewinski sur la peur:
La panique est devenue une nouvelle vertu tordue
La pandémie de Covid-19 a déformé l’état d’esprit de l’humanité, faisant de la peur une valeur intellectuelle. La panique est désormais le choix judicieux, et ceux qui la rejettent sont considérés comme de dangereux barbares. Les sociologues, les théoriciens politiques et d'autres experts attribuent à la pandémie de coronavirus en cours la création d'innombrables changements dans la société mondiale. Certains sont pratiques, certains psychologiques. Certains sont temporaires, tandis que d'autres resteront sous des formes évolutives.
Il est difficile de déduire si le changement le plus troublant que nous voyons est vraiment le résultat de la crise virale, ou s’il avait attendu sous le bruit de surface de la vie quotidienne pour une exposition complète par Covid-19. Pour la première fois dans l'histoire de l'humanité, la peur est désormais considérée comme un signe de supériorité intellectuelle, tandis que le choix de résister à la panique est considéré comme une sottise obstinée.
RépondreSupprimer[..] Si vous ne restez pas enfermé dans votre chambre pour vivre votre vie - toujours masquée, frottée et distancée - vous êtes un imbécile. Pire encore, vous êtes un imbécile imprudent qui manque de compassion pour les personnes que vous pourriez infecter. Quoi qu'il en soit, le thème sous-jacent est la «crise» et le désespoir au lieu du «défi» et de la résolution de problèmes.
[..] Enfin, si nous permettons à un peu de religion d’ancienne époque d’entrer dans la mêlée et de vérifier les auteurs de l’Évangile, on nous dit que Jésus a pleuré de peur la nuit avant de vaincre ses tentations et d’affronter la crucifixion. A l'autre bout du monde, le Bouddha a déclaré: «Tout le secret de l'existence est de ne pas avoir peur. Ne craignez jamais ce que vous deviendrez. Le zeitgeist psychologique actuel ridiculiserait toutes ces figures ou ces auteurs et leurs protagonistes comme étant précipités et insensés pour ne pas fuir et se cacher indéfiniment d'une menace jusqu'à ce qu'elle fasse ses dégâts ou décide de partir.
Ceux qui sont dans le culte de l'alarme diront que toutes ces références sont de la fiction et que Covid est la vraie vie. Je voudrais passer la parole à Joseph Campbell et leur rappeler que les mythes et leurs fables indiquent des valeurs culturelles. Personne ne ridiculisant ses collègues pour ne pas porter de masque alors qu'il est seul dans sa voiture, manger à l'extérieur de sa propre cuisine ou même avoir envie de retourner sur son lieu de travail n'a aucun rôle à jouer dans toute histoire émouvante ou dans les événements du monde réel qui les inspirent.
Peut-être que ce nouveau culte de l'inquiétude est un autre symptôme du coronavirus qui passera. D'ici là, nous vivons dans l'espoir d'un vaccin contre notre affliction de 2020 terne et auto-adulatoire.
La peur est une réaction naturelle saine et utile aux événements. Cela peut sauver votre vie. Mais ce n’est pas sain pour un individu de vivre dans la peur pendant une période prolongée, et la peur ne doit jamais prendre une identité de masse. Des sociétés entières vivant dans la peur pendant une période prolongée sont hautement toxiques pour leurs citoyens. En temps de guerre, les sociétés ne sont pas sauvées par ceux qui ont peur, mais par les individus qui refusent de laisser la peur mener leur vie et la transforment en bravoure. Parce que, comme le dit le Bouddha: "Tout le secret de l'existence est de ne pas avoir peur."
https://www.zerohedge.com/political/fear-new-smart
Incendies massifs: bien pires il y a 4000 ans en Australie du Nord
RépondreSupprimerMarch 6th, 2021
- voir sur site -
Terre d'Arnhem, Australie, carte
Kenneth Richard, de NoTricksZone, a découvert que certaines études montrent que les incendies sont moins fréquents aujourd'hui que par le passé - y compris un ripper d'une étude australienne.
Emma Rehn et coll. Se sont rendues dans un petit lac dans l'extrême nord de l'Australie et ont déterré environ 6 m de carottes de sédiments du fond. Ils ont examiné les gisements de charbon de bois et un tas de minéraux différents. Ils ont découvert que les couches supérieures les plus récentes avaient les pires incendies depuis mille ans. Il avait tous les ingrédients d'une publicité sur le Grand Changement Climatique. Mais à leur honneur absolu, ils ont continué à descendre et à reculer et ont découvert une histoire de quatre mille longues années d'incendies sauvages.
Malgré des millénaires d'enfers préhistoriques, aucun média en Australie n'a manifesté d'intérêt pour cette étude publiée il y a un mois - montrant que le sensationnalisme n'est pas tout à fait craqué et pas aussi amusant que le biais de confirmation.
Regardez le blip actuel (côté gauche) depuis la colonisation européenne, comparé aux incendies d'il y a 4000 ans (côté droit). Comme le dirait M. Dundee, «Ce n’est pas un incendie…. "
- voir graphique sur site -
Flux de carbone, feux de terre d'Arnhem, paléolithique, graphique.
Flux de carbone montrant l'intensité des incendies en terre d'Arnhem au cours des 5000 dernières années.
Les auteurs ont prélevé des échantillons de minéraux, examiné les différentes tailles des particules de charbon de bois. Ils ont décidé qu'il y avait des cycles d'incendies intenses tous les 450 ans, il y a environ 3 à 5 000 ans, en grande partie en raison du climat. (Quels modèles climatiques expliquent ces cycles?)
Il y a également eu plus de pluie il y a environ 4000 ans, ce qui - plutôt que de réduire les incendies - a peut-être alimenté la croissance de la biomasse qui a conduit à d'intenses incendies de forêt.
Au cours des 2 500 dernières années, les choses sont devenues plus sèches et plus variables, et les gens qui aimaient manger beaucoup de mollusques dans les vasières se sont installés dans la région. Apparemment, ils ont également fait plus de gestion locale des incendies. Ils semblent avoir allumé des incendies plus petits. Cela, et les conditions plus sèches signifiaient qu'il n'y avait pas la biomasse en vrac qui traînait pour alimenter les enfers que nous attendions du ministère moderne de la Planification, de l'Industrie et de l'Environnement.
Le graphique des scores z fait ressortir les périodes d'incendie les plus intenses.
RépondreSupprimer- voir graphique sur site -
Le cadeau est à gauche (encore).
Incendies de terres à Arnhem, graphique
Les incendies de terres à Arnhem étaient bien pires il y a 3000 à 5000 ans et avaient autrefois des cycles de haute intensité tous les 450 ans.
- voir carte sur site -
Carte, étude des incendies, NT
Marura, NT
Puis une chose étrange s'est produite il y a environ 900 ans alors qu'il n'y avait pratiquement pas de charbon de bois dans les sédiments de boue. Les gens à l'époque mangeaient moins de crustacés et semblaient se promener davantage. Les incendies semblent être de petits feux de patchwork réguliers.
Puis, au cours des 200 dernières années, des Européens sont arrivés, ont démoli les schémas soignés et de grands incendies sont revenus pour la première fois en mille ans. Bien que les couches supérieures de boue aient été remuées dans le petit lac, les dates réelles sont donc floues. Mais les archives historiques décrivent ce qui s'est passé.
Nous savions que les incendies étaient importants, nous ne savions tout simplement pas à quel point ils étaient inhabituels.
Bien sûr, des incendies encore plus gros et plus stupides se sont produits au cours des vingt dernières années, loin sur la côte est de l'Australie. Les experts ont décidé qu'ils protégeraient les koalas et les quolls repérés en arrêtant tous les petits incendies et les vaches au pâturage. Laissant ainsi un tonnage incendiaire de carburant s'accumuler afin qu'ils puissent générer des enfers pyroclastiques appropriés qui stérilisent la Terre.
Le nouveau plan génial consiste à utiliser des panneaux solaires et des moulins à vent pour parer à la grande apocalypse climatique de Dem.
La science de l'âge de pierre est tellement plus avancée que la science politiquement correcte.
- voir carte sur site -
Ce qui s'est passé au cours des 200 dernières années:
La terre d'Arnhem était sous bail pastoral de la fin du 19e au début du 20e siècle, avant l'établissement de la réserve autochtone de la terre d'Arnhem en 1931 (Barrier Miner 1931; Cole 1982). Russell-Smith et coll. (1997, p.180) ont noté la prévalence des incendies intenses de fin de saison sèche dans l'ouest de la Terre d'Arnhem à partir du siècle dernier avec «l'effondrement des pratiques de gestion traditionnelles», ces incendies devenant monnaie courante après les années 1940. Les changements dans les modèles de peuplement ont également entraîné une modification de la gestion des incendies dans des zones telles que la terre d'Arnhem, même après que la gestion a été rendue aux propriétaires traditionnels (voir Head 1994, p.177). Ceci est potentiellement reflété par un afflux massif de carbone pyrogène dans les échantillons les plus récents de Marura, suggérant des intensités de feu élevées associées à des incendies de fin de saison sèche influencés par l'Europe ou non gérés; cependant, les résultats de datation au plomb 210 suggèrent un mélange dans les 10 cm supérieurs de sédiment et par conséquent aucune conclusion définitive ne peut être tirée concernant la période la plus récente dans le registre Marura.
Pour ceux qui se demandent pourquoi ils pensent que la phase II a eu plus de brûlures artificielles:
RépondreSupprimerGrâce à des indications telles que des phases d'intensité de feu courtes et alternées et le découplage des valeurs de carbone pyrogénique en vrac δ13 C des changements d'intensité du feu, le record d'incendie de la phase II est considéré comme provoqué par l'homme. Ce style de brûlage, en tant que gestion active des incendies, est bien documenté; plusieurs études de Bliege Bird et al. (2008, 2012, 2013) ont décrit le brûlage de mosaïques à des fins de subsistance dans le désert occidental, créant une inégalité du paysage, fonctionnant comme un tampon contre les incendies à grande échelle dus au climat et favorisant des espèces telles que les varanidés qui nécessitent des parcelles d'habitat brûlées et non brûlées. Russell-Smith et coll. (1997) ont détaillé des méthodes similaires de brûlage pour la gestion des ressources dans l'ouest de la Terre d'Arnhem, et ces méthodes sont maintenant utilisées par plus de 70 projets de brûlage de savane enregistrés dans le nord de l'Australie (Ansell et al.2019).
Abstrait
Le feu a une longue histoire en Australie et est un facteur clé de la dynamique de la végétation dans les écosystèmes de savane tropicale qui couvrent un quart du pays. Des reconstructions au feu sont nécessaires pour comprendre la dynamique des écosystèmes à long terme, mais ces données font défaut pour les vastes savanes du nord de l'Australie. Cet article présente un enregistrement de paléofire multiproxy pour le gouffre de Marura dans l'est de la Terre d'Arnhem, dans le Territoire du Nord, en Australie. L'enregistrement est construit en combinant des méthodes optiques (comptage et morphologie des particules de charbon macroscopiques et microscopiques) et des méthodes chimiques (quantification de l'abondance et de la composition isotopique stable du carbone pyrogène par pyrolyse d'hydrogène). Cette nouvelle combinaison de mesures permet de générer un enregistrement de l'intensité relative du feu pour étudier l'interaction entre les influences naturelles et anthropiques. Le record de Marura palaeofire comprend trois phases principales: 4600–2800 cal BP, 2800–900 cal BP et 900 cal BP à présent. L'incidence de feu la plus élevée se produit à ~ 4 600–4 000 cal BP, ce qui coïncide avec les enregistrements régionaux de précipitations efficaces élevées, et tous les indicateurs de feu diminuent depuis ce moment jusqu'à aujourd'hui. 2800–900 cal BP se caractérise par des intensités de feu variables et correspond aux preuves archéologiques d'occupation à Blue Mud Bay, à proximité. Tous les proxys d'incendie diminuent considérablement après 900 cal BP. La combinaison des mesures du charbon de bois et du carbone pyrogène est une approximation prometteuse de l'intensité relative du feu dans les relevés sédimentaires et un outil utile pour étudier les régimes de feux anthropiques potentiels.
REFERENCE
Rehn, E. et al (2021) A late-Holocene multiproxy fire record from a tropical savanna, eastern Arnhem Land, Northern Territory, Australia [PDF]
https://joannenova.com.au/2021/03/massive-fires-far-worse-4000-years-ago-in-northern-australia/#more-76361
Les écolos nous mentent, de Jean de Kervasdoué
RépondreSupprimerLe dernier livre de Jean de Kervasdoué, « Les écolos nous mentent », passe en revue la stratégie des écolos pour nous convaincre avec des idées fausses.
Par Francis Richard.
7 MARS 2021
« Plusieurs éditeurs ont refusé d’envisager la publication de cet ouvrage, considérant que critiquer la bien-pensance écologique dominante, fût-elle infondée, était inenvisageable. »
La censure s’étend effectivement. Ce n’est hélas pas l’apanage du secteur public comme d’aucuns le pensent ou le disent, car le secteur privé condamne aussi très bien les opinions qui lui déplaisent.
Le secteur public pratique surtout la censure pour empêcher la contestation de son pouvoir. Le secteur privé le fait quand il est au service d’une idéologie plutôt que de ses clients, ce qu’il paie tôt ou tard.
LES ÉCOLOS
Par « écolos », Jean de Kervasdoué entend les écologistes politiques et non pas l’écologie, qui est une science. S’ils mentent, c’est parce que leurs arguments ne sont pas scientifiques mais idéologiques.
L’auteur donne de nombreux exemples de ces mensonges, qui, à force d’être répétés par des activistes, ou par des médias peu curieux, finissent par être tenus pour vrais par ceux qui ignorent les faits.
Muni de l’arme de la raison, Jean de Kervasdoué démonte ces mensonges. Il le fait non pas par plaisir de confondre les menteurs, mais parce que l’obscurantisme a toujours de terribles conséquences.
LES MENACES IMAGINAIRES DES ÉCOLOS
Par exemple, ce sont des menaces imaginaires que de dire :
On va manquer d’eau. « On ne peut pas consommer l’eau » :
« La molécule (H2O) est stable, indestructible, indéfiniment recyclable et recyclée. En revanche, elle voyage, elle tombe et change d’état pour devenir glace ou vapeur qui, après une dizaine de jours, retombera sous forme de pluie ou de neige, et le cycle recommencera ici ou ailleurs. »
Les incendies de forêt menacent la planète. Le taux d’oxygène de l’air est de 21 %, « taux stable depuis des millions d’années » :
« L’oxygène vient de l’atmosphère, et le gaz carbonique provient de la biomasse, quelle qu’elle soit. Cette biomasse rend kilo pour kilo, mètre cube pour mètre cube, les mêmes quantités de dioxyde de carbone que celles qui ont été précédemment absorbées. Les incendies libèrent cette même quantité de carbone, simplement ils le font plus rapidement. »
La biodiversité est menacée. « Sur de longues périodes, les espèces qui ont habités la Terre sont venues et s’en sont allées » :
« La biodiversité est dynamique, même sans incursion humaine, et l’équilibre entre espèces a toujours été et sera toujours instable. »
La production de miel va s’effondrer à cause des pesticides et des insecticides. Or, aucune relation de cause à effet n’a pu être établie avec la mortalité des abeilles :
« Il y a de bons et de mauvais apiculteurs et c’est ce facteur qui explique la différence de production des ruches, selon une étude de l’Agence française de sécurité sanitaire des aliments. »
Les poissons vont disparaître. Si la surpêche est avérée, « depuis les années 1970, l’aquaculture s’est développée de manière considérable dans le monde » :
« Aujourd’hui, en 2020, la production aquacole de poissons, de coquillages et de crustacés dépasse le tonnage exploité par la pêche traditionnelle ».
L’exploitation des forêts nuit à la biodiversité : globalement ce n’est pas le cas et « en Europe la forêt naturelle ne représente que 1 % des surfaces boisées », d’ailleurs :
« Moins une forêt est exploitée, plus elle se couvre, ce qui réduit la luminosité ; la biodiversité diminue alors, à moins de faire artificiellement des puits de lumière. »
LA CULPABILISATION
RépondreSupprimerL’humanité est coupable.
La population de la Terre s’accroît et ce sera une catastrophe :
« La régression de la famine mondiale n’est pas due à la destruction des forêts mais à l’amélioration de l’agriculture. »
Les hommes qui consomment de la viande consomment beaucoup d’eau. « Encore une fois, un être humain pas plus qu’un animal ne consomme de l’eau » :
« C’est la pauvreté et le sous-développement qui créent le manque d’eau potable, y compris dans des pays très humides. »
L’agriculture conventionnelle n’est pas protectrice de l’environnement :
« L’agriculture biologique nécessite plus de surfaces pour une production donnée et donc plus de terrains défrichés ; or les impacts environnementaux sont proportionnels aux surfaces concernées. »
Les produits de l’agriculture moderne avec ses pesticides sont moins bons pour la santé que les produits bio. Or « il n’y a pas d’agronomie sans pesticide, pas plus qu’il n’y a de médecine sans médicament ».
Selon une étude de 2014 de European Food Security Agency, « 98,8 % des produits bio étaient exempts de résidus dépassant les limites autorisées. Donc guère mieux que les produits non bio, issus de l’agriculture conventionnelle (taux de 97 %, soit un différentiel de 1,8 %). »
La viande rouge est dangereuse. Denis Corpet a calculé que la surconsommation de viande était la cause de 4000 décès par an parmi les personnes décédées d’un cancer colorectal, dont le nombre total était de 17 117 en 2018 selon Santé publique France :
« En reprenant les calculs avec un risque relatif de 1,18 on peut estimer le nombre de décès dus à la consommation excessive de viande à 595, soit environ à un millième de décès en France en 2019, à supposer que le risque des « très carnivores » ne soit pas associé à d’autres facteurs… »
Les OGM sont mauvais :
« La sélection génétique a été une des raisons majeures de la croissance considérable des rendements agricoles depuis un demi-siècle. Historiquement cette sélection s’est faite de manière empirique en reproduisant les bons sujets ou en faisant muter des graines, notamment par irradiation, pour trouver de nouvelles variétés. N’est-il pas préférable de maîtriser ce processus ? »
LES ÉCOLOS SE CONTREDISENT
Ils luttent contre les émissions de gaz carbonique1 et rejettent l’énergie nucléaire qui représente en France 70,9 % de l’énergie électrique, qui est une énergie décarbonée et qui est « la technologie la moins coûteuse en vies humaines ».
Ils tentent de parer leur idéologie des habits de la science et de « faire croire contre toute évidence que les OGM, les ondes téléphoniques, le glyphosate à dose d’usage courant, le compteur EDF Linky, etc. sont dangereux pour la santé. »
Soi-disant scientifiques, ils font pourtant des généralisations hâtives, confondant concomitance et causalité et oubliant qu’une démonstration n’est convaincante que si le lien est avéré toutes choses étant égales par ailleurs ; ils ont même recours à la pensée magique quand ils se font les chantres de la biodynamie…
CONCLUSION
RépondreSupprimerLes écolos sont des manipulateurs.
Pour véhiculer la peur, ils s’appuient sur des images de catastrophes : inondations, sécheresse, famines etc.
Ils abusent de la confusion entre risque et danger, entre expériences et modèles, entre météorologie et climat, entre le local et l’universel.
Ils exigent de leurs contradicteurs qu’ils démontrent que leurs cibles – énergie nucléaire, pesticides agricoles, additifs alimentaires – ne seront jamais dangereuses pour la santé.
« En l’absence d’arguments, ils sortent leur arme universelle, leur couteau suisse : le principe de précaution. »
Ils excommunient les mal-pensants.
Leur incontestable victoire ? La Convention citoyenne pour le climat :
« Combien coûtera-t-elle à la France et aux Français ? On en aura assez vite une idée. »
Les écolos nous mentent, Jean de Kervasdoué avec Henri Voron, 208 pages, Albin Michel.
Ils ont perdu la raison, 240 pages, Robert Laffont (2014)
—
Sur le web
1 - Le rôle de l’énergie électrique devrait croître avec les appareils électroniques, la 5G et les véhicules électriques ; les énergies dites renouvelables ne pourront jamais être que des énergies d’appoint en raison de leur intermittence.
https://www.contrepoints.org/2021/03/07/392635-les-ecolos-nous-mentent-de-jean-de-kervasdoue
Polémique Amanda Gorman : faut-il être noir pour traduire un Noir ?
RépondreSupprimerEntretien avec Sophie Bastide-Foltz, traductrice.
Par la rédaction de Contrepoints.
7 MARS 2021
Une polémique enfle concernant le choix d’une traductrice blanche pour la traduction en néerlandais1 des poèmes d’Amanda Gorman, noire, qui a été choisie par Joe Biden pour son investiture.
Contrepoints s’est entretenu avec la traductrice littéraire Sophie Bastide-Foltz pour recueillir son point de vue sur les dangers d’un choix qui consisterait à ne faire traduire des œuvres que par des traducteurs de la même origine que l’auteur.
Contrepoints : La réaction du traducteur René de Ceccatty, dans Le Point, à cette polémique a été : « L’idée qu’il faille être noir pour traduire un Noir est terrifiante. » Partagez-vous ce point de vue ?
Sophie Bastide-Foltz : Ce qui est terrifiant, c’est l’idée que la race devienne le critère premier, celui sur lequel on va fonder un travail. N’importe lequel, du reste, pas seulement la traduction d’une œuvre littéraire. C’est la théorie nazie par excellence. Aryen, vous aviez tous les droits. Non Aryens, vous ne pouviez plus exercer quantité de métiers, bref, on vous coupait les vivres, le vivre !
Exiger que le texte d’Amanda Gorman soit traduit par un noir (une noire ?) c’est du pur racisme… à l’envers, dit-on aujourd’hui pour parler de racisme anti-blanc. Moi je dis de racisme tout court.
La race, mais aussi l’idéologie comme critère, oui, c’est terrifiant. Et pourquoi pas, alors ne faire traduire des auteurs juifs que par des traducteurs juifs. Des auteures que par des traductrices. Je vois ça d’ici : sous les coordonnées habituelles, on remplirait quelques cases qui nous autoriseraient à traduire n’importe quel auteur ! Ce n’est plus de la bien-pensance, c’est de la terreur, de la dictature.
Contrepoints : La connaissance du contexte culturel, l’expérience personnelle ne donnent-elles pas à un traducteur de la même origine que l’auteur plus d’atouts pour que la traduction soit la plus fidèle possible au texte original ?
Sophie Bastide-Foltz : Les atouts, pour bien traduire, c’est avant tout la compétence linguistique et la connaissance du milieu, du cadre du récit qu’on doit traduire. Encore que cette connaissance peut s’acquérir en traduisant.
Je traduis en ce moment un livre dont le personnage principal est une archéologue. Je n’y connais rien en archéologie. Donc je passe un certain temps à me documenter. Cela fait d’ailleurs partie de ce qu’il y a de passionnant dans ce métier. On élargit sans cesse le champ de ses connaissances.
Il m’est aussi arrivé de refuser une traduction parce que n’avais pas les codes : une langue parlée dans certains quartiers de Philadelphie, par exemple, essentiellement par des Afro-américains m’est si étrangère que pour comprendre la série Sur écoute, il m’a fallu mettre les sous-titres (série fort bien traduite d’ailleurs).
Mais si moi, une Blanche, j’avais vécu là-bas quelques temps, j’aurais été parfaitement capable de la traduire. Un traducteur doit évidemment se plonger dans l’univers des livres qu’il traduit, quand bien même il lui est parfois étranger.
S’il n’a pas le temps ou la volonté de s’y plonger, alors oui, il doit s’effacer. Mais pas pour une raison de couleur de peau ou d’idéologie.
J’ai traduit Ayn Rand, mais aussi Susan Sontag qui sont pourtant toutes deux à l’opposé sur le plan idéologique. Et je traduirais un écrivain qui serait à l’opposé de mes idées politiques si je pensais que son œuvre en vaut la peine.
En revanche, je crois qu’il faut être poète pour traduire de la poésie qu’elle soit l’œuvre d’un blanc, d’un jaune, d’un noir ou d’un café au lait.
Contrepoints : Selon vous, est-ce de la démagogie de la part de Biden d’avoir choisi Amanda Gorman ? Une forme de bien-pensance politique ?
RépondreSupprimerSi avoir choisi Amanda Gorman est de la démagogie ? Bien sûr que c’en est. Elle a tous les atouts pour plaire à l’Amérique de Biden. Elle est femme, noire et de gauche. La totale !
Cela étant, j’ai quant à moi de sérieux doutes sur la qualité poétique de ses écrits. Ce n’est pas parce qu’on fait des vers qu’on est poète. Le texte qu’elle a lu, en tout cas, est un plaidoyer politique en vers, pas de la poésie.
Dernier ouvrage traduit : Lazare, de Richard Zimler, Cherche-midi, janvier 2021.
Et aussi : La Grève, Ayn Rand, Les Belles Lettres.
Marieke Lucas Rijneveld, qui depuis, a renoncé à cette traduction. ↩
https://www.contrepoints.org/2021/03/07/392591-polemique-amanda-gorman-faut-il-etre-noir-pour-traduire-un-noir
Dernièrement, un ami parti à l'étranger m'a fait part que là-bas il en était à sa 4è femme en 10 ans ! Et là moi de lui expliquer (j'ai fait de la psychologie à l'Université).
SupprimerLa racisme n'existe pas, il s'agit là d'une monstruosité inventée par les merdias et les politichiens. Des belles femmes il y en a dans tous les pays du monde. Des femmes moches il y en a dans tous les pays du monde. Idem pour les hommes. L'été, les 'blancs' vont se faire bronzer ! Bien la preuve qu'il ne sont pas racistes !
Mais pourquoi y a t-il ou peut-il y avoir parfois cette désunion ?
La séparation ne vient pas du racisme (qui n'existe pas) car, quand la femme a dit je t'aime à l'homme elle était sincère. Quand l'homme a dit je t'aime à la femme il était sincère. Il ne s'agit pas d'amour ou de racisme mais uniquement une distance de cultures.
C'est toujours après 'quelques temps' de vie commune que l'on s'aperçoit du qui est l'autre !
On a pas suivi le même chemin !
Par contre, à l'école, chacune et chacun a suivi les cours des instituteurs et professeurs mais chacun s'est fait de lui-même son idée, son idée du texte raconté. Chacun a fait son histoire, sa géographie, sa science, grammaire, calcul, dictée, rédaction, dessin, etc dans sa tête. Et donc à la sortie chacune et chacun l’interprète différemment.
Par contre, dans les dites 'grandes écoles' (écoles du crime), là, chacune et chacun y est formaté. Mis au carré, meulé, poli, surfacé, bref: moulé dans le devoir de tuer les autres sans tenir compte du ce que disent les autres. Qu'ils ou elles soient dites de 'droite', de 'gauche' ou des extrêmes, ils ou elles doivent penser pareil, parler pareil, tuer pareil.
Les éléments du progrès : les produits pharmaceutiques (10)
RépondreSupprimerComment, depuis l’invention de l’aspirine, les produits pharmaceutiques ont apporté à l’humanité confort et espérance de vie.
Par Tony Morley.
Un article de HumanProgress
7 MARS 2021
En 1853, Charles Frédéric Gerhardt, un chimiste français, a fait une découverte remarquable. Il a maîtrisé la connaissance de la salicine, un composé chimique naturel dérivé de l’écorce des saules – et a réussi à synthétiser chimiquement l’acide salicylique, une forme synthétique de salicine naturelle et le premier analgésique synthétique de la civilisation. Ce faisant, il a contribué à lancer la révolution pharmaceutique.
Pour traiter la douleur, les hommes utilisaient sans le savoir la salicine présente dans de nombreuses plantes, mais surtout dans l’écorce de saule, depuis au moins 1500 avant Jésus-Christ, depuis la Mésopotamie et l’Égypte. Mais savoir qu’une plante contient un principe actif et comprendre comment le synthétiser artificiellement à partir de rien sont deux choses très différentes.
Il a fallu plus de trois mille ans pour maîtriser ce saut technologique dans la chimie pharmaceutique. Outre le soulagement de la douleur, la salicine présentait un autre grand avantage : elle pouvait réduire l’inflammation et faire tomber la fièvre, en particulier chez les enfants.
Entre 1897 et 1899, un chimiste allemand, Felix Hoffmann, a affiné le processus de synthèse de l’acide acétylsalicylique, une forme raffinée et améliorée de l’acide salicylique synthétique, alors qu’il travaillait pour la société pharmaceutique Bayer basée en Allemagne. Le nom que Bayer a donné au premier médicament produit en masse est aussi connu aujourd’hui qu’au début du siècle. C’est l’aspirine.
En 1950, l’aspirine était devenue l’analgésique le plus consommé au monde. Aujourd’hui, nous consommons plus de cent milliards de comprimés d’aspirine par an. La mise au point de la chimie et de la technologie nécessaires à la production d’acide acétylsalicylique a été la première d’une série de dizaines de milliers de composés pharmaceutiques naturels et synthétiques produits entre le sommet de la révolution industrielle et aujourd’hui.
Il est si facile d’oublier à quel point les produits pharmaceutiques modernes ont transformé nos vies. De l’insuline aux contraceptifs modernes, de l’acétaminophène au paracétamol, ces composés non seulement améliorent la vie mais sauvent des vies.
La Food and Drug Administration (FDA) américaine réglemente à elle seule environ 20 000 médicaments sur ordonnance et composés chimiques utilisés pour traiter des milliers d’affections. Les composés pharmaceutiques dont nous disposons ont contribué à réduire considérablement la morbidité dans les pays développés et en développement.
Le progrès scientifique stimulé par un réseau commercial en expansion et largement libéralisé, a contribué à faire progresser à la fois le développement et l’utilisation des principales découvertes pharmaceutiques. Il n’est pas exagéré de dire que certains des médicaments les plus importants ont eu un impact significatif sur les moyennes d’espérance de vie, ainsi que sur notre bien-être général.
RépondreSupprimerDès l’aube de la révolution industrielle, la société a commencé à produire une série de médicaments révolutionnaires, d’antibiotiques, de vaccins et bien d’autres choses encore. Parmi ces médicaments clés, on trouve l’éther et la morphine, de puissants antalgiques, inventés respectivement en 1842 et 1827.
L’insuline, un traitement efficace contre le diabète, a été mise au point en 1922 ; la pénicilline, un antibiotique puissant, en 1942 ; les traitements médicamenteux contre la tuberculose en 1951 ; les contraceptifs oraux dans les années 1960 ; le salbutamol pour traiter l’asthme en 1966 ; et une série de médicaments de chimiothérapie et d’inhibiteurs du VIH efficaces dans les années 1990.
L’humanité a accompli tout cela et bien plus encore. De puissants anesthésiques, antibiotiques, antipaludéens ou vaccins modernes qui ont également sauvé des centaines de millions de vies – en particulier celles des enfants.
Aujourd’hui, le marché des produits pharmaceutiques représente plus de 1100 milliards de dollars américains, avec une croissance de plus de 5 % par rapport à la seule année précédente. Les mêmes forces du marché, qui ont contribué à fournir une énergie abondante et peu coûteuse, ainsi que des communications et des voyages rapides et fiables, ont également contribué à faire progresser une industrie qui a amélioré la santé et le bien-être de milliards de personnes.
Aujourd’hui, la plupart des habitants des pays développés ont un accès relativement peu coûteux à une vaste gamme de médicaments en vente libre et sur ordonnance, dont même les chimistes les plus optimistes de la fin du XIXe siècle ne pouvaient rêver.
Pour moins cher que le prix d’un café, vous pouvez vous débarrasser d’un mal de tête, prendre une dose d’antibiotique pour traiter une infection, faire baisser la fièvre d’un enfant, fournir une dose de réhydratation orale ou d’anti-histaminique pour les allergies. La bonne nouvelle, c’est que l’innovation et le progrès au sein de l’industrie pharmaceutique continuent à être les moteurs du progrès humain.
Cela est d’autant plus important que les scientifiques du monde entier s’efforcent de mettre au point des traitements et des vaccins peu coûteux, efficaces et rapidement utilisables pour lutter contre la pandémie de coronavirus SRAS-COV-2.
—
Sur le web
https://www.humanprogress.org/stuff-of-progress-pt-10-synthetic-pharmaceuticals/
https://www.contrepoints.org/2021/03/07/392631-les-elements-du-progres-les-produits-pharmaceutiques-10
Les politiques énergétiques de la Californie nuisent le plus aux citoyens des minorités
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 06 MAR 2021 - 19:30
Rédigé par Jude Clemente via RealClear Energy
En 2020, quelque 9 millions de Californiens n'étaient pas en mesure de payer leurs factures d'énergie. La California Public Utilities Commission (CPUC) rapporte que les clients des principaux services publics d'électricité et de gaz appartenant à des investisseurs ont accumulé 1,15 milliard de dollars de factures impayées au cours de l'année.
En tant que leader climatique «énergie propre», la Californie cherche à parvenir à une économie sans carbone avant 2050, en veillant à ce que son système électrique puisse résister aux événements météorologiques extrêmes et fournir une énergie abordable à 40 millions de personnes.
Ce dernier objectif pourrait être le plus grand défi. Le vent et le soleil sont peut-être gratuits, mais en tirer de l'électricité est tout sauf.
Le prix de l'électricité résidentielle de la Californie en 2020 était de 20,50 $ le kWh, soit 55% de plus que la moyenne nationale de 13,20 $ - un problème énergétique coûteux qui ne fait que s'aggraver (voir la figure).
La dernière version du Renewable Portfolio Standard (RPS) de la Californie, le 100% Clean Energy Act, a été promulguée en 2018. Elle oblige les services publics californiens à utiliser 100% d'énergie propre d'ici 2045, avec une exigence provisoire de 60% d'ici 2030.
Les coûts sont immenses.
Des experts de l’Energy Policy Institute de l’Université de Chicago ont rapporté en novembre que «les prix de l’électricité augmentent considérablement après l’adoption du RPS», ajoutant 30 milliards de dollars de coûts supplémentaires après seulement sept ans.
Voici quelques-uns des chiffres, selon une nouvelle recherche de l’Institut de l’énergie de l’UC Berkeley à Haas:
Les prix résidentiels moyens par kWh dans le territoire de service de San Diego Gas & Electric (SDGE) sont environ le double de la moyenne américaine.
Les tarifs de Pacific Gas and Electric (PG&E) sont 80 % supérieurs à la moyenne américaine.
Les prix du Southern California Edison (SCE) sont 45 % plus élevés que la moyenne américaine.
Depuis 2013, les tarifs de San Diego Gas & Electric ont augmenté de près de 50 %, les clients de PG&E payant près de 40 % de plus.
Un nouveau rapport de l'UC Berkeley attribue les prix élevés de la Californie à d'énormes coûts fixes pour la production et les investissements dans le réseau qui sont simplement répercutés sur les clients.
Par exemple, les coûts liés à l'énergie solaire sur les toits et à l'atténuation des incendies de forêt augmentent rapidement.
Les experts de l’UCLA ont constaté que les programmes d’énergie propre de la Californie profitent aux riches et laissent derrière eux les familles vulnérables.
Alors que les résidents plus aisés installent des systèmes solaires sur les toits pour réduire leurs factures d'électricité, les ménages à revenus faibles et moyens supportent un plus grand fardeau pour couvrir ces coûts fixes.
Le problème d'électricité coûteux de la Californie ne fera qu'empirer.
RépondreSupprimerDe 2020 à 2022, les trois grands services publics d'électricité appartenant à des investisseurs (PG&E, SCE et SDGE) prévoient de dépenser 22 milliards de dollars pour durcir leurs systèmes en réduisant la végétation et en prenant d'autres mesures pour lutter contre les incendies de forêt, ainsi que les coûts élevés de transport. et autres mises à niveau du réseau.
La CPUC admet que cela pourrait augmenter les tarifs résidentiels groupés de 10 à 20% au-dessus du taux d'inflation.
Fitch Ratings a salué la solvabilité du Département de l'Eau et de l'Énergie de Los Angeles (LADWP), car il a «une très forte capacité à augmenter ses revenus».
Sans blague.
Il y a quelques années, la ville a levé les plafonds sur les facteurs d'ajustement et a apporté d'autres changements pour s'assurer que la hausse des coûts puisse être répercutée de manière transparente sur les clients.
Le LADWP a une fonction de découplage des revenus dans ses tarifs d'électricité, de sorte que lorsque les ventes diminuent, les prix peuvent être augmentés l'année suivante pour compenser les pertes.
En d'autres termes, si la consommation d'énergie diminue, que ce soit en raison d'une diminution de la population ou du départ d'entreprises, le LADWP peut simplement augmenter ses tarifs pour compenser.
En effet, beaucoup critiquent le système de plafonnement et d’échange de la Californie comme une taxe déguisée, car les coûts plus élevés sont simplement imposés aux consommateurs captifs.
Fait le plus mal aux citoyens des minorités
De Hewlett-Packard à Occidental Petroleum en passant par Tesla, la liste des entreprises quittant la Californie s'allonge. Ces départs représentent des opportunités d’emploi perdues pour les résidents de l’État. Et la hausse des prix de l'énergie affecte de manière disproportionnée les communautés minoritaires.
Déjà battue par Covid-19, la dernière chose dont les communautés minoritaires ont besoin, ce sont des taxes régressives, comme celles imposées par les politiques énergétiques californiennes:
Après avoir contrôlé des facteurs tels que le revenu et la taille du ménage, les experts de l'UC Berkeley concluent que les locataires afro-américains paient 273 $ de plus chaque année que leurs pairs blancs. Les propriétaires afro-américains paient annuellement 408 $ de plus pour l'énergie que les propriétaires blancs.
Le groupe de développement durable de l’UCLA a récemment montré comment ces communautés défavorisées de Los Angeles pouvaient être laissées pour compte dans la transition vers les énergies renouvelables, les voitures électriques et les technologies écoénergétiques.
Les experts disent aux responsables que les prix exorbitants de l’électricité en Californie pourraient bloquer l’objectif de l’électrification et même retourner l’opinion publique contre les énergies renouvelables.
En tant qu'intrant pour tout, une énergie plus coûteuse augmente les coûts de tout, particulièrement dévastateur pour la nourriture, l'eau, le chauffage / refroidissement et d'autres nécessités qui répondent principalement à une demande inélastique.
De plus en plus de lois à travers l'État interdisent les branchements au gaz naturel au profit d'une électricité plus chère, alors même que les prix du gaz sont à leur plus bas niveau depuis des décennies.
Sur une base équivalente à l'énergie, l'interdiction du gaz en Californie oblige les propriétaires et les locataires à payer quatre fois plus pour leur énergie qu'ils le feraient s'ils consommaient directement du gaz naturel.
En termes simples, l'objectif de «tout électrifier» est une taxe énergétique de facto sur les Californiens à revenu faible et intermédiaire qui pourrait ajouter plus d'instabilité à un réseau électrique étatique déjà prouvé instable.
RépondreSupprimerLes communautés minoritaires ripostent naturellement.
Une coalition de leaders latino-américains des droits civiques a poursuivi la Californie au sujet des politiques énergétiques et du logement de l’État. On s'attend à ce que le mandat de forcer les toits solaires sur les nouvelles maisons aggrave le problème du logement abordable de l'État, ajoutant des coûts de 12 000 $ par maison.
La California Restaurant Association a également poursuivi la ville de Berkeley pour son interdiction de gaz: selon l'enquête sur la communauté américaine du Census Bureau, 60% de tous les restaurants de Californie appartiennent à des minorités.
C'est pourquoi les leaders des droits civiques comme Revs. Al Sharpton et Jesse Jackson soutiennent activement le gaz naturel.
La récente crise énergétique au Texas a montré que les politiques visant à garantir une énergie abordable et fiable sont vraiment une question de vie ou de mort. La Californie devrait tenir compte de cette leçon.
https://www.zerohedge.com/energy/californias-energy-policies-hurt-minority-citizens-most
La périlleuse stratégie des USA et de l'OTAN en Europe
RépondreSupprimerManlio Dinucci
Réseau Voltaire
ven., 05 mar. 2021 19:44 UTC
L'Otan et l'Union européenne sont deux enfants du Plan Marshall. Ils sont intrinsèquement liés l'une à l'autre formant les deux faces d'une même pièce : un côté militaire et un autre civil. Cependant l'Otan est au-dessus de l'Union européenne dont —selon les Traités— elle garantit la sécurité.
Du 22 février au 5 mars se déroule en mer Ionienne l'exercice Otan Dynamic Manta de guerre anti-sous-marin. Y participent des navires, sous-marins et avions des États-Unis, Italie, France, Allemagne, Grèce, Espagne, Belgique et Turquie. Les deux principales unités engagées dans cet exercice sont un sous-marin nucléaire US d'attaque de la classe Los Angeles et le porte-avions français Charles de Gaulle à propulsion nucléaire avec son groupe de bataille, comprenant aussi un sous-marin nucléaire d'attaque. Le Charles de Gaulle, immédiatement après, ira dans le Golfe Persique. L'Italie, qui participe au Dynamic Manta avec des navires et sous-marins, est la « nation hôte » de tout l'exercice : elle a mis à disposition des forces participantes le port de Catane et la station d'hélicoptères de la Marine toujours à Catane, la station aéronavale de Sigonella (la plus grande base USA/Otan en Méditerranée) et la base logistique d'Augusta pour les approvisionnements. Objectif de l'exercice : la chasse aux sous-marins russes en Méditerranée qui, selon l'Otan, menaceraient l'Europe.
Pendant ces mêmes journées le porte-avions Eisenhower et son groupe de bataille sont en train d'effectuer des opérations dans l'Atlantique pour « démontrer le continu soutien militaire US aux alliés et l'engagement à maintenir les mers libres et ouvertes ». Ces opérations —conduites par la Sixième Flotte, dont le commandement est à Naples et la base à Gaeta— entrent dans la stratégie énoncée en particulier par l'amiral James G. Foggo, anciennement à la tête du Commandement Otan de Naples : accusant la Russie de vouloir couler avec ses sous-marins les navires qui relient les deux rives de l'Atlantique, afin d'isoler l'Europe des USA, il soutient que l'Otan doit se préparer à la « Quatrième bataille de l'Atlantique », après celles des deux guerres mondiales et de la guerre froide. Pendant que sont en cours les exercices navals, des bombardiers stratégiques B-1, transférés du Texas en Norvège, sont en train d'effectuer des « missions » au bord du territoire russe, avec des chasseurs F-35 norvégiens, pour « démontrer la rapidité et la capacité des États-Unis à soutenir les alliés ». Les opérations militaires en Europe et dans les mers adjacentes se déroulent sous les ordres du général de l'US Air Force Tod Wolters, qui est à la tête du Commandement européen des États-Unis et en même temps de l'Otan, avec la charge de Commandant suprême allié en Europe qui revient toujours à un général états-unien.
RépondreSupprimerToutes ces opérations militaires sont officiellement motivées comme « défense de l'Europe contre l'agression russe », en renversant la réalité : c'est l'Otan qui s'est étendue en Europe, avec ses forces et bases y compris nucléaires, au bord de la Russie. Au Conseil européen le 26 février, le secrétaire général de l'Otan Jens Stoltenberg a déclaré que « les menaces que nous avions devant nous avant la pandémie sont toujours là », mettant au premier plan « les actions agressives de la Russie » et, en fond, une menaçante « montée de la Chine ». Il a ensuite souligné la nécessité de renforcer le lien transatlantique entre États-Unis et Europe, comme le veut fortement la nouvelle administration Biden, en portant à un niveau supérieur la coopération entre UE et Otan.
Plus de 90 % des habitants de l'Union européenne, a-t-il rappelé, vit aujourd'hui dans des pays de l'Otan (dont font partie 21 des 27 pays de l'UE). Le Conseil européen a réaffirmé « l'engagement à coopérer étroitement avec l'Otan et la nouvelle administration Biden pour la sécurité et la défense », en rendant l'UE militairement plus forte. Comme a précisé le Premier ministre Mario Draghi dans son intervention, ce renforcement doit advenir dans un cadre de complémentarité avec l'Otan et de coordination avec les USA. Donc le renforcement militaire de l'UE doit être complémentaire à celui de l'Otan, à son tour complémentaire à la stratégie US. Celle-ci consiste en réalité à provoquer en Europe de croissantes tensions avec la Russie, afin d'augmenter l'influence états-unienne dans l'Union européenne même. Un jeu de plus en plus périlleux, parce qu'il pousse la Russie à se renforcer militairement, et de plus en plus coûteux. Ce que confirme le fait qu'en 2020, en pleine crise, la dépense militaire italienne est montée du 13ème au 12ème rang mondial en dépassant même celle de l'Australie.
https://fr.sott.net/article/36628-La-perilleuse-strategie-des-USA-et-de-l-OTAN-en-Europe
La pagaille vaccinale au Québec et ailleurs dans le monde
RépondreSupprimerPhilippe Giroul, Rolland Danis
Mondialisation.ca
sam., 06 mar. 2021 14:10 UTC
Comment les « usagers - patients - cobayes » que nous sommes devenus vont-ils pouvoir se retrouver dans la pagaille de plus en plus florissante des fabricants de vaccins ? La liste s'allonge de jour en jour : il y en a une flopée : Moderna, Pfizer/BiotNTech. AstraZeneca, Johnson & Johnson, Spoutnik-V, Medicago, Ulysse, Novavax, SanofiPasteur/GlaxoSmithKline, Coronavac de Sinovac, Soberana-02, les vaccins à ARN messager, les vaccins sans ARN s'il en est, etc., etc...
ggghhhh
Cette chasse aux vaccins nous donne le tournis ! En Europe, il y a bien des rebondissements !
Sur le site du ministère de la santé (1), on lit :
« Actuellement, près d'une cinquantaine de vaccins contre la COVID-19 sont étudiés dans des essais cliniques partout dans le monde ,... »
Quand les « variants » vont sévir, les vaccinologues vont devoir revoir leurs essais et leurs recherches. On n'est pas sorti du bois !
De plus, l'âge des « usagers / bénéficiaires » varie selon la variété des vaccins disponibles : les plus de 16 ans, les plus de 18 ans, les plus de 65, 70, 80, 85 ans... L'état de santé individuel et les habitudes de vie sont des autres facteurs à considérer pour éventuellement faire le bon choix, si disponible.
Comment le « petit » peuple apeuré par les médias depuis un an peut-il faire confiance à nos gouvernants qui font tout leur possible pour gérer la crise (ministres, directeurs/trices de CIUSS, fonctionnaires, épidémiologues, immunologues, infectiologues, infirmières/piqueuses, médecins de famille, psychologues, sociologues, directeurs/trices de CHSLD et RPA public ou privé, ...)
Devant ce fouillis inextricable, avant de se faire piquer, le futur ex-malade doit remplir un « Questionnaire pré immunisation » du ministère de la Santé et Services sociaux, dans lequel on l'invite à cocher dans la case « Consentement / décision » qui avertit :
« Les renseignements sur les avantages et les risques de la vaccination contre la Covid, sur les réactions possibles et sur la conduite à tenir post-vaccination ont été donnés à la personne ou son représentant légal ». (2)
Combien de vaccinés ont reçu et compris ces renseignements?
Ce n'est pas tout : une deuxième invitation à cocher :
« Les informations contenues dans la feuille d'information destinée à la population fournie avec le Protocole d'immunisation du Québec (PIQ) a été communiquées à la personne ou son représentant légal ».
On en est à la septième édition du PIQ ! Si l'on n'est pas abonné à l'infolettre du ministère de la santé, les mises à jour du PIQ ne seront pas fournies aux « usagers- bénéficiaires - cobayes ».
Dans une RPA trifluvienne, on a assisté à une séance collective de vaccination, porte à porte, auprès des résidents la plupart ignorants ce qu'ils risquent. Un seul vaccin (Pfizer/BiotNTech) leurs était offert sans explications. On est loin du « Code de Nuremberg qui identifie le consentement éclairé comme préalable absolu à la conduite de recherche mettant en jeu des sujets humains » (3)
Nos gouvernants qui doivent faire face à cet embrouillement extraordinaire font tout ce qu'ils peuvent pour faire respecter les consignes de bases dans les zones rouges, oranges, ... : Masques, Distanciations, Lavages de mains, Confinements, Couvre-feux, Bulles, ...
Que peuvent faire les Habitants de la terre pour affronter et participer aux changements de paradigmes qui nous sont imposés par les nouvelles circonstances sanitaires présentes?
La rébellion n'est certainement pas bonne conseillère. Ni la soumission.
Il nous faut espérer beaucoup de résilience pour combattre notre ennemi commun invisible et gagner la guerre en toute solidarité avec les proches aidants que sont nos enfants et nos petits-enfants.
RépondreSupprimerPhilippe Giroul, Rolland Danis sont résidents dans une RPA (Résidence privée pour aînés), Trois-Rivières.
Notes :
1 https://www.quebec.ca/sante/conseils-et-prevention/vaccination/vaccin-contre-la-covid-19/
2 https://www.msss.gouv.qc.ca/professionnels/vaccination/protocole-d-immunisation-du-quebec-piq/
3 http://www.frqs.gouv.qc.ca/documents/10191/186011/Code_Nuremberg_1947.pdf/d29861b8-30a7-456e-9a83-508f14f4e6d5
https://fr.sott.net/article/36632-La-pagaille-vaccinale-au-Quebec-et-ailleurs-dans-le-monde
«C'est systémique» - Les consommateurs de café font face à une flambée des prix alors que les frais d'expédition augmentent
RépondreSupprimerPAR TYLER DURDEN
DIMANCHE 07 MAR 2021 - 8:45
Les goulots d'étranglement des expéditions créés par la pandémie virale ont perturbé les chaînes d'approvisionnement mondiales. Il y a actuellement un déséquilibre des conteneurs d'expédition dans le monde qui a entraîné des coûts de transport élevés. La dernière industrie à se plaindre de la forte inflation des expéditions sont les transformateurs de café américains qui préviennent que les prix de détail pourraient devoir augmenter, selon Reuters.
Les transformateurs de café de toutes tailles sont alarmés par la hausse des coûts de transport. Les torréfacteurs de taille moyenne et plus petite pourraient être particulièrement touchés. Même les grandes entreprises comme Peet's et JM Smucker Co ont déclaré qu'elles luttaient contre la hausse des coûts.
"Il y a des contraintes d'approvisionnement, non pas à cause de la production, mais simplement des obstacles que nous pose le COVID-19 et les directives de sécurité. C'est un problème systémique", a déclaré Jorge Cuevas, cadre chez Sustainable Harvest Coffee Importers à Portland, Oregon.
"Il est maintenant plus cher qu'au cours des cinq à dix dernières années d'apporter du café au consommateur", a déclaré Cuevas.
Les entreprises de café ont souligné les perturbations du transport transocéanique, telles que la pénurie de conteneurs, quelque chose que nous avons noté pour la première fois le dernier Semtpter qui a souligné que la demande de fret maritime en provenance de Chine «conduisait à des pénuries d'équipement en Asie». Cela a provoqué une balance commerciale déséquilibrée avec l'Est, car les produits en provenance de Chine se sont précipités vers les États-Unis alors que les conteneurs s'empilaient dans les pays occidentaux avec très peu de produits renvoyés, ce qui a entraîné des retards d'expédition et une flambée des coûts des conteneurs.
"Le coût du conteneur est un problème majeur sur le marché du café", a déclaré l'analyste de Rabobank Carlos Mera. Il a déclaré que les routes de l'Asie du Sud-Est vers l'Europe et les États-Unis subissent des coûts d'expédition plus élevés en raison de la pénurie.
«Même si vous êtes prêt à payer, vous ne trouverez peut-être pas de disponibilité», prévient Mera.
Les produits bruts tels que le café, le cacao, le coton et le sucre raffiné sont généralement expédiés via des conteneurs d'expédition, tandis que le maïs, les haricots et le sucre brut sont transportés dans des vraquiers.
Un directeur principal de la Joe Coffee Company, basée à New York, a déclaré qu'une expédition de café d'Afrique de l'Est prévue pour janvier avait été repoussée ce mois-ci.
JM Smucker, le propriétaire de marques telles que Folgers et Dunkin, a publié une déclaration qui disait:
«Comme d'autres acteurs du secteur, nous avons été confrontés à des défis récents dans la chaîne d'approvisionnement du café.»
Smucker a ajouté:
"Bien que nous évaluions régulièrement les coûts pour déterminer les actions appropriées, nous n'avons pas de planification imminente à partager pour le moment."
Les arriérés de transport pour le café ont contribué à faire grimper les prix à leur plus haut niveau depuis plus d'un an.
"Nous signons actuellement des contrats de livraison pour l'été et l'automne, et ces prix ont augmenté un peu, environ 15% d'augmentation sur tout", a déclaré Oliver Stormshak, directeur général d'Olympia Coffee Roasting, basé à Olympia, Washington.
RépondreSupprimer«J'essaie de décider dès maintenant si nous mangeons les coûts ou si nous restructurons nos prix et les augmentons», a-t-il ajouté.
S&P Global Platts a déclaré que l'inflation des transports avait frappé de nombreux secteurs d'activité américains au quatrième trimestre, ajoutant près de 10 milliards de dollars aux coûts d'entreprise. Alors que les tarifs d'expédition continuent d'augmenter et que la pénurie de conteneurs n'est toujours pas résolue, ce n'est qu'une question de temps que non seulement les prix du café au niveau de la vente au détail augmenteront, mais aussi de nombreux autres produits importés de l'étranger.
Nous avons déjà noté que Kraft Heinz Co et Conagra Brands avaient averti le mois dernier qu'elles répercuteraient des coûts plus élevés sur les consommateurs.
La hausse des coûts, transmise aux consommateurs par les entreprises, se produit peut-être au pire moment de l'histoire, car des millions d'Américains peuvent à peine se payer un loyer et nourrir leur famille. Il y a aussi un risque de stagflation.
https://www.zerohedge.com/commodities/shipping-inflation-hits-us-coffee-firms-who-may-pass-costs-consumers
Des virus mortels se logent dans de nombreux laboratoires
RépondreSupprimerMaryse Laurence Lewis
mondialisation.ca
ven., 05 mar. 2021 20:00 UTC
Le docteur Fauci, celui qui promouvait l'hydroxychloroquine, durant les épisodes de grippes aviaire et porcine, la bannit maintenant. Sa John Hopkins Institute fut la première instance à prédire que la prochaine pandémie serait de type Sras, à difficulté respiratoire. Quelle coïncidence. À cet effet, on élaborait des modèles de propagation virale. Avec tous les budgets de recherches, les connaissances des membres de l'Organisation Mondiale de la Santé, et surtout, les milliers de laboratoires où l'on étudie les microorganismes, nous pouvons constater que cet argent sert à entretenir les fléaux puisque, depuis 1980, les pics épidémiques ont triplé. Depuis l'ultime décennie du XXe siècle, en moyenne, chaque année, une nouvelle infection nous prend en grippe. ¹
Les prophètes des fléaux à venir ressuscitent des pathogènes
ron fouchierEt voici le pire : il existe sur cette planète une cinquantaine de laboratoires de niveau 4. Ce qui signifie à sécurité maximale, pouvant résister aux séismes et à des pannes de courant. On y maintient non seulement les plus atroces pathogènes connus, mais on en réactive aussi, tel que celui à l'origine de la grippe espagnole de 1918. Cet exploit est dû à l'équipe d'Adolfo García Sastre, en 2005 aux États-Unis. Mieux! En 2011, Ron Fouchier, un virologue néerlandais, parvint à rendre contagieux le virus H5N1 de la grippe aviaire qui, avant son doigté miraculeux, s'avérait incapable d'un transfert aux humains... ²
Aux États-Unis, une quinzaine de ces laboratoires fonctionnent. En France, deux centres de niveau 4 relèvent des forces armées et le troisième de l'INSERM, à la ville de Lyon. Le Canada en possède un, basé à Winnipeg : le Laboratoire National de Microbiologie. La Russie en contrôle au minimum trois. Le laboratoire de Wuhan est issu d'une collaboration entre la Chine et la France. ³
► Le niveau 1 ne requiert pas de protection spéciale.
► Au niveau 2, les pathogènes sont principalement ceux transmis par ingestion ou injection, comme la bactérie Escherichia coli, les salmonelles et l'herpès.
► Au niveau 3, ce sont des bacilles du charbon ou de la tuberculose; le virus du Nil occidental. 4
► Les vedettes du niveau 4 sont toutes létales : le virus Ebola, celui de la fièvre hémorragique de Crimée-Congo, du syndrome respiratoire du Moyen-Orient et la fièvre de Lassa. Et, parmi leurs semblables, le virus de Marburg. Un malfrat qui réussit une évasion spectaculaire. Cet organisme minuscule, auquel on n'accorde pas même le statut d'être vivant, réussit à déjouer les mesures de sécurité, à contaminer 31 chercheurs et causer sept morts... au laboratoire de la ville allemande portant ce nom. Depuis, les scientifiques ont-ils modifié leur philosophie, quant à la probabilité de tels incidents ?
On fit tout un cas, lorsque la Russie fut accusée d'avoir laissé échapper de l'anthrax et de possibles virus, lors d'une explosion de laboratoire. On reproche aux autorités d'en avoir minimisé les conséquences. Si l'un des puissants virus, conservés en laboratoire, se propageait à l'extérieur, croyez-vous que les responsables du lieu et le gouvernement du pays s'empresseraient de l'annoncer? Les États-Unis financent plusieurs laboratoires en Ukraine. Comment pourrait-on élucider la provenance d'une fuite mortelle? Les États-Unis et la Russie, spécialistes de la diplomatie mise au froid, s'en accuseraient mutuellement.
L'euthanasie volontaire de l'humanité
RépondreSupprimerNe diminuons pas les faits. Il est criminel de subventionner, maintenir et réactiver des agents pathogènes, puisque leur étude ne peut en rien mener à la fabrication rapide d'un vaccin. Le risque qu'un virus s'échappe d'un laboratoire est plus probable et dangereux que la possibilité d'une pandémie provoquée de manière naturelle, puisque nous vivons avec des microorganismes depuis des siècles. Notre système immunitaire en pare le plus souvent les méfaits, sauf s'il est déjà affaibli par la vieillesse ou une maladie. Et les animaux accusés d'être vecteurs d'infections sont majoritairement ceux générés par des élevages industriel, soumis à la promiscuité, bourrés d'antibiotiques ou de stéroïdes qui accélèrent leur croissance.
Pourquoi des États permettent-ils à des laboratoires pharmaceutiques privés de profiter d'une pandémie, pour vendre des vaccins concoctés à la hâte, à prix effarants? Si nous détenons une carte de premiers soins, nous pouvons être accusés de ne pas avoir prêté assistance à quelqu'un ou être condamné pour une aggravation de son cas, suite à une intervention malheureuse. Les gérants de laboratoires, eux, exigent ne pas être tenus responsables des suites d'une vaccination. Et leurs contrats de ventes demeurent des secrets d'État.
Pris aux filets de la finance
Peut-on avoir confiance en l'humanisme et la probité de Pfizer, en sachant que cette entreprise tente d'inclure, dans ses contrats, des clauses sans lien avec la santé? Ce fait en soi devrait être jugé criminel. Solliciter des quotas de pêche et le site des glaciers de Patagonie! Si cette perversité ne vous convainc pas, sachez que l'article que j'ai rédigé à ce sujet n'a été publié par aucun média de diffusion massive, seulement par des journaux alternatifs. Personne en poste stable et bien rémunéré n'en parle, en dehors de l'Argentine. 5
Les médias officiels font tout un cas d'Alexeï Navalny, mais quand il s'agit d'espionnage avéré, encore plus étendu qu'au moment du Watergate (dont M. Kissinger fut un des responsables, mais jamais limogé), c'est l'homme qui dévoile ces pratiques illégales qui est poursuivi comme un criminel. Il aurait été non seulement empoisonné pour vrai, mais serait mort depuis longtemps, si la « justice » du gouvernement états-unien l'avait saisi à temps. On nous ment en permanence, et lorsqu'on s'informe à des sources plus variées, on nous reproche de manquer d'esprit critique. Quelle farce grossière.
Une faillite mondiale avantageuse pour les spéculateurs
Admettons que les adhérents du Forum Économique Mondial et ceux de la Banque Mondiale n'aient pas planifié la crise financière actuelle. Le fait est qu'elle ne touche que les citoyens de la classe moyenne et les populations les plus pauvres. On ne peut nier qu'il est aussi inutile que pervers d'avoir fermés des commerces et réduit les heures de travail des salariés, jusqu'à les endetter auprès des banques, alors que des mesures sanitaires auraient pu être prises dès le début. 6
Il demeure contraire à la logique de restreindre les heures d'ouverture des marchés d'alimentation, puisque cela oblige les gens à s'y concentrer en plus grand nombre avant la fermeture, augmentant leur anxiété, leur exposition au froid et au vent, l'hiver, en défilant à l'extérieur.
Même lorsqu'on croit à l'efficacité des vaccins, il est impossible de ne pas voir que cette entreprise est une mesure eugéniste, puisque seuls les pays qui ont les moyens de payer les doses et leur réfrigération à des température extrêmes peuvent se les procurer.
On évoque donc le revenu de citoyenneté, comme remède aux pertes d'emplois et aux faillites dues à la Covid-19. Au Québec, il y a plus de cinquante ans, l'option appelée « créditiste » le proposait déjà. Les intellectuels se moquaient de ses représentants. On les considérait ignorant les complexités de la finance. Si leurs porte-parole s'illustraient par le ridicule, leur proposition d'un système de prêts sans intérêts, lui, n'avait rien d'illogique. C'était le cas aux États-Unis, à l'époque de Benjamin Franklin, jusqu'à ce que les Rothschild s'en mêlent et rendent les nations dépendantes des banques, par l'endettement avec taux d'intérêts. 7
RépondreSupprimerLe revenu de citoyenneté : une contribution publique au bénéfice des nantis
Je demande à ceux qui sont en faveur de cette mesure de ne pas oublier que cela nécessite un changement de mentalité. Avec la cupidité des politiciens que l'on remet sans cesse au pouvoir, si l'on assurait un revenu à chacun, les gens déjà bien nantis n'en seraient pas tous exclus. Dès lors, l'écart des revenus entre les citoyens ne s'amenuiserait en rien.
► Même si les individus gagnant plus d'un certain montant annuel n'y avaient pas droit, ces privilégiés bénéficient suffisamment de reports d'impôts, subventions, prêts sans intérêt et d'évasions fiscales chaque fois plus subtiles et variées. La situation actuelle ne les touche pas.
► Croyez-vous que les plus fortunés, qui essaient par tous les moyens d'échapper au fisc, accepteraient de couvrir, par leurs impôts, le revenu citoyen de la majorité d'une population? C'est le contraire qui persiste depuis des lustres.
► En jouissant d'un revenu supplémentaire, les gens déjà mieux pourvus consommeraient encore plus et les prix, même élevés, leur sembleraient peu exorbitants.
► En invoquant le prétexte que tous ont un revenu, on en profiterait pour augmenter les loyers, le tarif des transports publics et celui des denrées. Comptez sur cette mentalité humaine plus que séculaire!
► Ce revenu ne garantirait pas à un sans-abri d'être accepté par un propriétaire de logements. En Scandinavie, même là où est effectif ce revenu de citoyen, des gens quêtent et offrent un journal de rue.
► Toutes les formes d'aides et de services communautaires qui, en s'accumulant, permettent aux chômeurs, aux assistés sociaux et aux travailleurs à faibles salaires de se débrouiller, seraient abolis.
► La condition des personnes « à statut précaire » ne ferait qu'empirer, alors que les nantis de toujours magnifieraient leur confort.
La disparition des billets : l'étape ultime à la réussite d'une dictature financière
argent électroniqueCertains souhaitent la disparition de l'argent, sous forme de billets et monnaie. Imaginez que nous ne puissions désormais qu'utiliser des cartes. Si une entreprise privée peut annuler les réseaux sociaux d'un homme qui fut élu Président, censurer ou faire disparaître des vidéos de médecins fameux, dès que le contenu ne répond pas aux discours des monopoles financiers ou des politiciens, attendons-nous à en souffrir les conséquences, en tant que critiques, artistes, journalistes ou militants.
Rien ne serait plus aisé, si l'on désire nuire à quelqu'un, de rendre inopérante une carte, au moment où une transaction urgente doit être réglée, ou lors d'un confinement si l'on attend une livraison de nourriture... Invoquer un problème technique, même si la personne détient les fonds, serait facile à réaliser et juridiquement complexe à prouver.
Autrefois, on nous confiait un livret, dans lequel s'imprimaient nos transactions. Qu'adviendrait-il, si une bombe détruisait une banque dont les données s'envolaient en fumée? On désire éliminer un concurrent? Payons un jeune expert en sabotage informatique! C'est lui qui sera mis en prison, s'il est découvert, et non les instigateurs idéologiques et financiers.
RépondreSupprimerL'État providence, c'est le peuple
L'État providence, ce n'est pas un gouvernement et les entreprises privés qui le maintiennent. Ce sont les contribuables qui paient les impôts, les locataires qui défraient un loyer, les taxes que nous acquittons sur les achats. Ces apports fournissent les salaires et avantages fiscaux des politiciens, conseillers et fonctionnaires. En plus de financer les services sociaux. Lorsqu'on parle d'augmenter la contribution des citoyens, cela signifie leur demander de payer deux fois pour des services, alors qu'on privatise toujours davantage les infrastructures.
Choisir entre la distanciation sociale et la coopération
Ce n'est pas aux individus lésés par cette épidémie de faillites d'en payer les conséquences. Les gens dont on a aggravé la santé, en annulant ou reportant une opération ou un diagnostic, les commerçants en déficit réel, les organismes communautaires fermés, les employés devenus chômeurs, les pays dont on a ruiné l'économie, tous devraient s'associer et demander à la Cour Internationale de Justice de fixer une redistribution aux victimes.
distantiation physique
Le Président Macron a déclaré : « Nous sommes en guerre ». Et bien, à la fin d'une guerre, on demande à ceux qui l'ont incitée ou en ont profité de payer des compensations. Que Bill Gates, Jeff Bezos d'Amazone, l'Institut John Hopkins, les entreprises Gilead, Pfizer, Astra-Zeneca, la Fondation Rockefeller, Klaus Schwab du Forum Économique Mondial, distribuent les profits amassés durant une période où leur attitude n'eut rien de philanthropique, mais d'abuseurs.
C'est à eux de payer un revenu temporaire aux citoyens pour le rétablissement social.
Les membres de partis d'opposition devraient exiger que l'on rende publiques les clauses des contrats entre les entreprises et les élus signataires. Tout ce qui ne concerne pas la santé et y est inclus, joint aux diverses répercussions pernicieuses, devraient être considérés comme des sollicitations illégales et crimes contre l'humanité.
Notes et références :
RépondreSupprimer1. L'article de Marine Corniou : Prêts pour la prochaine pandémie? Revue Québec-Science, octobre-novembre 2019.
Au sujet des virus rendus contagieux ou recréés en laboratoire
2.1 https://legrandcontinent.eu/fr/2020/05/07/10-points-sur-les-laboratoires-p4/
2.2 https://www.lemonde.fr/sciences/article/2014/03/10/virus-mutants-les-furets-de-la-discorde_4380437_1650684.html
3. Les chiffres varient. La revue Québec Science mentionne une cinquantaine de laboratoires de niveau 4 au monde, d'autres une trentaine. Certains pays en financent en dehors de leur territoire national, ce qui complique leur dénombrement.
4.1 http://science.gc.ca/eic/site/063.nsf/fra/97757.html
Laboratoire 101 : Que faut-il pour entreposer les agents ...
4.2 https://publications.msss.gouv.qc.ca/msss/fichiers/2014/14-610-05W.pdf
4.3 https://www.franceculture.fr/sciences/ces-laboratoires-qui-luttent-contre-les-plus-redoutables-virus
5. https://www.mondialisation.ca/largentine-annulera-t-elle-son-contrat-avec-pfizer-la-societe-pfizer-inclus-dans-le-contrat-la-demande-dacces-aux-glaciers-et-a-la-mer-en-plus-du-couts-payes-par-letat-pour-l/5652352
6. Les contradictions des politiciens face à la Covid-19
https://www.france24.com/fr/20200807-covid-19-variation-du-discours-politique-sur-le-port-du-masque-en-france
7. Pour des suggestions d'apports d'argent de manières légales et justes
https://ssjb.com/vers-demain/
https://fr.sott.net/article/36631-Des-virus-mortels-se-logent-dans-de-nombreux-laboratoires
«Profiter de la pauvreté» - Le côté de Baltimore que les médias ne vous montreront pas
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 06 MARS 2021-21: 00
Avant que le président Trump et les républicains ne concentrent leur énergie sur la ville de Baltimore, montrant comment des décennies de leadership libéral ont transformé la région métropolitaine autrefois florissante en un «trou d'enfer», les lecteurs se souviendront peut-être de nos reportages (voir: ici, ici et ici). un côté de Baltimore que beaucoup connaissaient à peine, sauf s'ils ont regardé la série policière "The Wire".
De l'épidémie d'opioïdes aux homicides, en passant par la guerre des gangs, les crimes violents, les infrastructures défaillantes pour abandonner les maisons en rangée à une inégalité de richesse massive - nous avons été parmi les premiers à faire la lumière sur le côté des médias traditionnels de Baltimore que les médias traditionnels ne voulaient jamais que vous voyiez.
Reprenant le flambeau, c'est Caity McDuffee du Daily Caller, qui a arpenté les rues de Baltimore avec l'ancien candidat républicain au Congrès (MD-District 7) Kimberly Klacik.
Klacik a déclaré lors de la saison électorale 2020:
«Les démocrates ne veulent pas que vous voyiez ça. Ils ont peur que j'expose à quoi ressemble la vie dans les villes dirigées par les démocrates. C'est pourquoi je me présente au Congrès parce que tous les noirs sont importants Baltimore compte Et les noirs ne le font pas. Je dois voter démocrate. "
McDuffee s'est entretenu avec Klacik et son directeur de campagne, Markus Trend Anderson, ont tous deux expliqué comment «tout autour de Baltimore» il y a des milliers de logements vacants. Il a déclaré que la plupart des fonds fédéraux affectés à ces quartiers ne sortent jamais dans les rues.
Le journaliste s'est ensuite entretenu avec un pasteur local du nom de Rodney Hudson, qui a déclaré que tout le système était corrompu. Il a dit que ce n'est pas seulement le système scolaire qui est brisé, ce sont les familles, l'économie - et «toute la communauté» - tout est brisé.
Vers la troisième minute, Klacik souligne que les ballons attachés à des objets dans la rue de la ville signifient généralement que quelqu'un a été assassiné à cet endroit. Par habitant, Baltimore est l'une des zones métropolitaines les plus dangereuses du pays.
Au bout de 5 minutes, Hudson a dit à McDuffee que les gens «profitent de la pauvreté» dans toute la ville.
Le directeur de campagne de Klacik conclut avec l'idée que beaucoup de gens dans la rue «ne veulent pas vendre de drogue», mais quand il n'y a «aucune opportunité de carrière», leur seule option est de vendre de la drogue.
Rien de tout cela ne devrait surprendre les lecteurs qui ont suivi nos commentaires au fil des ans. En fait, nous avons fourni certains des meilleurs aperçus sur le chaos qui se déroule à Baltimore après les émeutes de 2015.
RépondreSupprimerAprès nous avoir écoutés discuter du sujet de Baltimore, certaines questions devraient tourbillonner autour de votre tête sur la façon de résoudre ce désordre. Eh bien, ce ne sera certainement pas un chèque de revenu de base universel - la ville a besoin d'un plan pour repartir de zéro - commencez par reconstruire les infrastructures, les écoles, soutenir les familles et, surtout, offrir des carrières à valeur ajoutée - pas des emplois dans le secteur des services comme barman. Baltimore était autrefois une puissance industrielle - peut-être que la ville peut à nouveau prospérer, mais il faudra plus d'une décennie pour se redresser.
Et encore une chose, où est Kevin Plank et ses ambitions de transformer Baltimore? Peut-être se cache-t-il dans sa ferme équestre de plusieurs millions de dollars ?
Regardez la vidéo complète ici:
- voir sur site :
https://www.zerohedge.com/political/profiteering-poverty-side-baltimore-media-wont-show-you
L’énorme fraude cachée de l’IPCC au sujet du gaz carbonique ?
RépondreSupprimerle 7 mars 2021
Lorsque j’ai fait mes premières armes dans le domaine de la recherche en biologie l’une des techniques les plus fastidieuses et avec laquelle il fallait prendre le maximum de précautions consistait à mesurer la « respiration » des mitochondries et établir un bilan pondéral, au sens chimique du terme, de cette respiration. L’appareillage comprenait des cellules de Warburg dans lesquelles on disposait l’échantillon à étudier auquel on pouvait avoir accès pour ajouter un « substrat » oxydable, tout processus de respiration d’origine biologique commençant par l’oxydation d’un substrat en utilisant l’oxygène de l’air. Pour obtenir un bilan on mesurait la quantité d’oxygène consommée en suivant la diminution de la pression d’air à l’intérieur de la cellule de Warburg mais pour bien évaluer cette consommation d’oxygène, l’oxydation faisant apparaître du gaz carbonique, il fallait donc se débarrasser de ce gaz carbonique. Par exemple pour l’oxydation d’une molécule de glucose : C6H12O6 + 6 O2 → 6 CO2 + 6 H2O le bilan du volume gazeux est nul. Les cellules de Warburg comprenaient donc un puits central dans lequel était ajoutée une solution concentrée de soude. La soude piège très efficacement le gaz carbonique et il était alors possible de mesurer la vraie consommation d’oxygène puisque : 2 NaOH + CO2 → Na2CO3 + H2O Cette technique de piégeage du gaz carbonique est classique et date du début du XIXe siècle. En biologie elle présente d’autant plus d’intérêt qu’il est possible de suivre l’oxydation d’un substrat marqué avec du carbone-14 au cours d’un processus de respiration en comptant ensuite le carbone-14 dégagé sous forme de gaz carbonique et piégé par la soude. C’est par cette approche que la majeure partie du cycle des acides tricarboxyliques fut mise en place et finalement élucidée par Hans Krebs, un élève de Otto Warburg, au cours des années 1930 à 1960, bien que l’usage de radio-isotopes ne fut introduit que de nombreuses années plus tard.
Sans entrer dans le détail des mesures de gaz carbonique à partir des carottes glaciaires l’étude de l’évolution de la teneur en gaz carbonique de l’atmosphère ne date pas des observatoires comme celui de Mona Loa sur l’île de Hawaii dont les mesures effectuées maintenant par spectrométrie infra-rouge sont instantanées, mesures auxquelles se réfère exclusivement le fameux organisme onusien en charge du réchauffement climatique, je veux nommer l’IPCC. Dès le début du XIXe siècle, en effet, divers laboratoires utilisaient la même technique que celle mise en œuvre dans les respiromètres de Warburg. Un échantillon d’air était recueilli dans un récipient clos pouvant être connecté à un système simple de mesure de la variation de volume comme par exemple un fin tube en U gradué partiellement rempli d’eau. Il suffisait alors d’injecter dans ce récipient de la soude dont la préparation très coûteuse en énergie thermique au début du XIXe siècle consistait à décarbonater le carbonate de sodium trouvé dans les cendres de plantes halophytes comme la salicorne par calcination à cet effet en présence d’eau, la réaction inverse de celle mentionnée ci-dessus décrivant la capture du gaz carbonique par la soude. Entre 1812 et 1961 plus de 90000 mesures directes du gaz carbonique atmosphérique ont été effectuées dans le monde tant en Asie qu’en Europe ou en Amérique du Nord dans une cinquantaine de stations d’étude en utilisant cette méthode volumétrique très précise. Les mesures faisaient état de teneurs en gaz carbonique atmosphérique variant entre 290 et 440 ppmv (parties par million en volume) avec une moyenne située entre 335 et 348 ppmv. L’IPCC a toujours fermement refusé de s’intéresser à ce trésor de données qui existent pourtant dans les archives des observatoires d’analyse.
La raison en est simple : l’IPCC a fixé une fois pour toutes la teneur en gaz carbonique atmosphérique à atteindre pour éviter tout réchauffement du climat à 280 ppmv dite pré-industrielle. Cette valeur a été arbitrairement fixée à partir des données obtenues avec les carottages glaciaires au Groenland et dans l’Antarctique. Or la précision de l’évaluation des teneurs en gaz carbonique pour la période historique proche, disons depuis 200 ans, à partir des carottages glaciaires est très incertaine pour ne pas dire fantaisiste. Il faut en effet plusieurs milliers d’années pour que la glace soit parfaitement stabilisée et que les mesures soient considérées comme parfaitement fiables. Pour les 200 dernières années les résultats obtenus n’ont rien à voir avec la réalité. Les fluctuations observées par les dosages du gaz carbonique ne peuvent s’expliquer que par des phénomènes de dégazage des océans mais ils sont d’une complexité telle qu’ils ne sont pas encore totalement compris à ce jour.
RépondreSupprimer- voir graphique sur site -
Note. L’échelle des ordonnées couvre l’intervalle 270-450 ppm de gaz carbonique
Pourquoi l’IPCC a sciemment ignoré toutes ces données ? Tout simplement parce que le fondement de la fraude de cet organisme qu’est l’IPCC est la culpabilité du gaz carbonique d’origine anthropique expliquant le réchauffement du climat tel qu’il a été observé depuis le début du vingtième siècle, c’est-à-dire quand l’utilisation du pétrole a débuté et s’est ajoutée à celle du charbon. Que la teneur en gaz carbonique atmosphérique passe de 340 ppmv à 410 aujourd’hui ne suffit pas pour incriminer ce gaz carbonique dans le réchauffement du climat qui, comme il faut le rappeler, était plus froid au XIXe qu’aujourd’hui. L’optimum climatique moderne scindé en deux périodes, 1900-1945 et 1970-2000, que l’IPCC considère comme une conséquence de l’augmentation du gaz carbonique atmosphérique provoqué par l’activité industrielle n’est pas le fait de cette augmentation dite anthropique. L’augmentation de la teneur en gaz carbonique dans l’atmosphère est le résultat du dégazage superficiel des océans du fait de cet optimum climatique moderne car ces océans ont piégé des quantités considérables de gaz carbonique au cours du « petit âge glaciaire » conformément à la loi de Henry ( https://en.wikipedia.org/wiki/Henry%27s_law ).
La fraude de l’IPCC est donc double : 1) La limite à atteindre pour éviter tout réchauffement n’est pas de 280 ppmv mais serait plus raisonnablement 340 ppmv peut-être même plus et 2) l’IPCC a allègrement confondu cause et effet : l’augmentation de la teneur en gaz carbonique atmosphérique n’a pas provoqué de réchauffement climatique depuis le début du vingtième siècle, c’est tout simplement l’inverse. En 2007 Zbigniew Jaworowski déclarait que ces manipulations de l’IPCC constituaient peut-être le plus grand scandale scientifique de notre temps. Jaworowski concluait son article de synthèse ainsi : « Ce n’est pas l’homme mais la nature qui influe sur le climat. Le Protocole de Kyoto et les rapports de l’IPCC, en accord avec des idées malthusiennes, peuvent certainement faire beaucoup de bruit et créer d’énormes dommages à l’économie et au bien-être de milliards de personnes. Mais ils ne peuvent rien pour le climat. Nous l’apprendrons dans un futur proche ». Jaworowski avait aussi déclaré en 2004 que « La base de toutes les conclusions de l’IPCC relatives aux causes anthropogéniques et aux projections faites sur le changement du climat est celle d’un faible niveau du gaz carbonique atmosphérique à l’ère pré-industrielle. Cette affirmation, basée sur les études de glaciologie, est fausse. Par conséquent les projections de l’IPCC ne devraient pas être utilisées pour planifier les économies nationales ou globales ».
Mais à qui profitent ces mensonges ? J’en ai déjà dit un mot dans un précédent billet : aux puissances financières qui gouvernent le monde appuyées dans leur agenda par des idiots utiles que sont les écologistes politisés, un doux mélange contre nature car ces derniers sont tous des gauchistes et pourtant ils soutiennent l’agenda de la puissance financière globale sans état d’âme.
RépondreSupprimerSource partielle et illustration : http://www.warwickhughes.com/icecore/zjmar07.pdf
Note. À la suite de sa publication dans la revue Energy & Environment en mars 2007 Ernst Beck (voir la figure ci-dessus) fut accusé de fraude et il disparut du monde scientifique, une preuve supplémentaire du pouvoir de nuisance des spécialistes auto-proclamés de l’IPCC qui veulent dissimuler leurs propres fraudes. Les données rassemblées par Beck et dont il n’était pas l’auteur ont été immédiatement considérées comme non fiables et fantaisistes. La controverse d’éteignit avec le « silence scientifique » de Beck et il est aujourd’hui impossible d’accéder aux publications de Ernst Beck.
https://jacqueshenry.wordpress.com/2021/03/07/lenorme-fraude-cachee-de-lipcc-au-sujet-du-co2/
La majorité des Allemands favorisent l'assouplissement des restrictions relatives au COVID-19
RépondreSupprimerPAR TYLER DURDEN
DIMANCHE 07 MAR 2021 - 7:35
Plus tôt cette semaine, les Allemands ont enfin pu profiter d'un assouplissement très léger des restrictions relatives au COVID-19, ce qui a permis à de nombreuses personnes de se précipiter pour des coupes de cheveux indispensables. Cependant, comme le note Niall McCarthy de Statista, de nouveaux assouplissements devraient prendre beaucoup plus de temps, car la puissance économique de l'Europe est à la traîne d'Israël, des États-Unis et du Royaume-Uni dans le rythme de sa campagne de vaccination.
Une enquête récente menée par ZDF Politbarometer a révélé que les Allemands sont las des restrictions et soutiendraient un nouvel assouplissement.
- voir graphique sur site -
Infographie: La majorité des Allemands sont favorables à un assouplissement des restrictions | Statista
Vous trouverez plus d'infographies sur Statista
Il y a une image claire des partisans du parti avec la majorité des partisans des partis conservateurs soutenant l'assouplissement du verrouillage.
Surtout, 82 % des personnes soutenant le parti de droite AfD disent vouloir l'ouverture du pays. Les électeurs de partis plus de gauche ont tendance à être beaucoup plus prudents.
https://www.zerohedge.com/covid-19/majority-germans-favor-easing-covid-19-restrictions
La méthode d'impression 3D rapide évolue vers les organes imprimés en 3D
RépondreSupprimer6 MARS 2021
par l'Université de Buffalo
Cela ressemble à de la science-fiction: une machine plonge dans une cuve peu profonde de glu jaune translucide et en sort ce qui devient une main grandeur nature.
Mais la vidéo de sept secondes, qui est accélérée à partir de 19 minutes, est réelle.
La main, qui prendrait six heures à créer à l'aide de méthodes d'impression 3-D conventionnelles, montre ce que les ingénieurs de l'Université de Buffalo disent être un progrès vers des tissus et des organes humains imprimés en 3-D - une biotechnologie qui pourrait éventuellement sauver d'innombrables vies perdues en raison de la pénurie. d'organes de donneurs.
«La technologie que nous avons développée est 10 à 50 fois plus rapide que la norme de l'industrie, et elle fonctionne avec des échantillons de grande taille qui étaient très difficiles à réaliser auparavant», déclare Ruogang Zhao, auteur principal de l'étude, Ph.D., professeur agrégé de génie biomédical.
Le travail est décrit dans une étude publiée le 15 février dans la revue Advanced Healthcare Materials.
Il se concentre sur une méthode d'impression 3D appelée stéréolithographie et sur des matériaux gélatineux connus sous le nom d'hydrogels, qui sont utilisés pour créer, entre autres, des couches, des lentilles de contact et des échafaudages en génie tissulaire.
Cette dernière application est particulièrement utile dans l'impression 3D, et c'est quelque chose que l'équipe de recherche a consacré une grande partie de ses efforts à l'optimisation pour obtenir sa technique d'impression 3D incroyablement rapide et précise.
- voir clip sur site -
«Notre méthode permet l'impression rapide de modèles d'hydrogel de la taille d'un centimètre. Elle réduit considérablement la déformation des pièces et les blessures cellulaires causées par l'exposition prolongée aux stress environnementaux que vous voyez couramment dans les méthodes d'impression 3D conventionnelles», explique l'autre co- auteur principal, Chi Zhou, Ph.D., professeur agrégé de génie industriel et des systèmes.
Les chercheurs affirment que le procédé est particulièrement adapté à l'impression de cellules avec des réseaux de vaisseaux sanguins intégrés, une technologie naissante qui devrait être un élément central de la production de tissus et d'organes humains imprimés en 3D.
https://medicalxpress.com/news/2021-03-rapid-3d-method-3d-printed.html
Combien de km² de panneaux solaires en Espagne et combien de batterie de secours faudrait-il pour alimenter l'Allemagne
RépondreSupprimerRédigé par le Dr Lars Schernikau et le professeur William H. Smith
Publié en novembre 2020, dernière mise à jour en février 2021
(les auteurs ont apprécié tous les commentaires reçus menant à cette version sensiblement révisée).
Accessible au public sur Researchgate et SSRN
À propos des auteurs:
Le Dr Lars Schernikau est un économiste de l'énergie et un entrepreneur dans l'industrie des matières premières énergétiques.
Le professeur William Hayden Smith est professeur de sciences de la Terre et des planètes au McDonnell Center for Space Sciences de l'Université de Washington.
DOI: 10.2139 / ssrn.3730155
Il s'agit d'un calcul en arrière-plan basé sur l'expérience des centrales photovoltaïques existantes en Californie et sur les données de batteries et d'ensoleillement accessibles au public pour l'Espagne. Les calculs peuvent être ajustés en utilisant différentes hypothèses.
Préface:
· La puissance (en watts, en allemand «Leistung») est la puissance du moteur d’une voiture. L'énergie pour conduire une Tesla, par exemple, est dérivée d'une batterie. Une batterie Tesla S d'une demi-tonne kWh alimente un moteur électrique de 192 kW pour accélérer la Tesla S. de 2,2 tonnes.
· L'énergie (en Watt / heure ou Wh, en allemand «Arbeit oder Energie») est la quantité de travail nécessaire pour déplacer la voiture de 2,2 tonnes, par exemple, pendant 1h à 100 km / h sur un terrain spécifié. L'énergie équivaut au «travail». Dans ce cas, l'énergie varie en fonction du temps de déplacement, de la vitesse, de la masse, de l'aérodynamique, du frottement et de la puissance appliquée pour surmonter ces «obstacles». La batterie Tesla S d'une demi-tonne stocke de l'énergie de 85 à 100 kWh.
· Le facteur de capacité «CF» (en allemand «Nutzungsgrad») est le pourcentage de puissance produite à partir de la capacité installée pour un site donné, généralement exprimé sur une base annuelle.
- Le facteur de capacité n'est pas le facteur d'efficacité. L'efficacité mesure le pourcentage d'énergie d'entrée transformée en énergie utilisable.
- Le facteur de capacité suppose une réponse photovoltaïque stable et mesure la qualité du site, qui varie en fonction de la latitude, de la masse d'air, de la saison, de la diurne (cycle solaire de 24h à cet endroit) et de la météo.
- En Allemagne, le photovoltaïque («PV») atteint un facteur de capacité annuel moyen d'environ 10%, tandis que la Californie atteint un CF moyen annuel de 25% 3. Ainsi, la Californie produit 2,5 fois la puissance d'une installation photovoltaïque identique en Allemagne.
- Il est important de faire la distinction entre le facteur de capacité annuelle moyenne et le facteur de capacité hebdomadaire et journalier mensuel ou meilleur, ce qui est très pertinent lorsque nous essayons d'utiliser l'énergie solaire pour nos besoins quotidiens en énergie (voir Figure 5).
1. Résumé
RépondreSupprimerL'Allemagne est responsable d'environ 2% des émissions mondiales annuelles de gaz carbonique liées à l'énergie. Pour répondre à la demande d'électricité de l'Allemagne (ou plus de 15 % de la demande d'électricité de l'UE) uniquement à partir de panneaux solaires photovoltaïques situés en Espagne, environ 7 % de l'Espagne devrait être recouverte de panneaux solaires (~ 35 000 km²). L'Espagne est le pays le mieux situé d'Europe pour l'énergie solaire, mieux en fait que l'Inde ou l'Asie (du Sud) Est. Le parc solaire espagnol requis (PV-Espagne) aura une capacité totale installée de 2.000 GWc, soit près de 3x la capacité solaire installée de 2020 dans le monde de 715 GW. De plus, une capacité de stockage de secours totalisant environ 45 TWh serait nécessaire. Pour produire une capacité de stockage suffisante à partir de batteries utilisant la technologie de pointe actuelle, il faudrait la pleine production de 900 Tesla Gigafactories fonctionnant à pleine capacité pendant un an, sans compter le remplacement des batteries tous les 20 ans. Pour l’ensemble de la demande d’électricité de l’Union européenne, il en faudrait 6 fois plus - environ 40% de l’Espagne (~ 200 000 km²), avec une capacité de batterie 6 fois supérieure.
Pour que le parc solaire ne fonctionne que pour l'Allemagne, les panneaux photovoltaïques devraient être remplacés tous les 15 ans, ce qui se traduit par un besoin annuel de silicium pour les panneaux atteignant près de 10 % de la capacité de production mondiale actuelle (~ 135 % pour une installation ponctuelle) . Les besoins en argent pour les panneaux photovoltaïques modernes alimentant l'Allemagne se traduiraient par 30% de la production annuelle mondiale d'argent (~ 450 % pour une installation ponctuelle). Pour l'UE, l'essentiel de la production mondiale annuelle de silicium et 3 fois la production annuelle mondiale d'argent ne seraient nécessaires que pour le remplacement.
Il n'y a actuellement pas assez de matières premières disponibles pour une batterie de secours. Une solution de stockage de batteries de 14 jours pour l'Allemagne dépasserait la production mondiale de batteries de 2020 par un facteur de 4 à 5x. Produire les batteries nécessaires pour l'Allemagne seule (ou plus de 15% de la demande d'électricité de l'UE) nécessiterait l'extraction, le transport et le traitement de 0,4 à 0,8 milliard de tonnes de matières premières chaque année (7 à 13 milliards de tonnes pour une setup), et 6 fois plus pour l'Europe. Les matières premières nécessaires comprennent le lithium, le cuivre, le cobalt, le nickel, le graphite, les terres rares et la bauxite, le charbon et le minerai de fer pour l'aluminium et l'acier. La production mondiale 2020 de lithium, d'anodes en graphite, de cobalt ou de nickel ne suffirait presque pas à plusieurs facteurs pour produire les batteries pour l'Allemagne seule.
Il semble que la faible densité d’énergie solaire, l’apport élevé de matières premières et le faible rendement énergétique investi (eROeI) ainsi que les besoins de stockage importants font de la technologie solaire d’aujourd’hui un choix non viable sur le plan environnemental et économique pour remplacer l’énergie conventionnelle à grande échelle.
2. Introduction et hypothèses
RépondreSupprimerLe 3 juillet 2020, la ministre allemande de l'environnement, Mme Svenja Schulze, a annoncé publiquement (traduit de l'allemand) que «l'Allemagne sera le premier pays à abandonner le charbon et l'énergie nucléaire. Nous nous fierons entièrement à l'énergie dérivée du solaire et de l'éolien ». Cette déclaration ainsi que la proclamation de l'AIE d'octobre 2020 selon laquelle l'énergie solaire deviendra le «nouveau roi des marchés mondiaux de l'électricité» ont conduit les auteurs à faire les calculs ci-après.
L’objectif de ce document est de calculer la capacité solaire installée en Espagne pour répondre à 100% aux besoins en électricité de l’Allemagne avec de l’énergie solaire produite en Espagne, ce qui équivaut à remplacer plus de 15% de la demande d’électricité de l’UE. Nous appelons ce parc solaire photovoltaïque espagnol «PV-Espagne». L’Espagne est le meilleur emplacement de l’Europe pour l’énergie solaire compte tenu de son irradiation normale directe élevée (DNI, voir figure 1) et en fait, l’Espagne a un ensoleillement nettement plus approprié que l’Inde ou l’Asie (du Sud) Est.
En outre, ce document calculera la capacité de sauvegarde requise sous forme de batteries et abordera le sujet de l'apport de matériaux requis à la fois pour le PV-Espagne et pour la sauvegarde. Les sujets d'un parc solaire dans le désert du Sahara ainsi que de l'hydrogène sont également abordés. Les calculs multidimensionnels présentés ici démontrent la complexité de l'économie de l'énergie, qui est largement sous-estimée dans le débat actuel sur les énergies renouvelables.
- voir carte sur site -
Figure 1: Irradiation normale directe mondiale, basée sur la moyenne à long terme de kWh / m2.
Source: Groupe de la Banque mondiale, consulté le 4 septembre 2020 à ce lien
Simplifier les hypothèses
Les calculs des auteurs se fondent sur les hypothèses simplificatrices suivantes qui sont en moyenne assez généreuses. Ces hypothèses peuvent être remplacées par celles des lecteurs:
A1. Demande moyenne d'électricité: l'Allemagne a une demande annuelle moyenne d'énergie électrique mesurée jusqu'à ~ 550 TWh, pour simplifier, nous supposons ~ 45 TWh par mois ou ~ 1,5 TWh par jour. À titre de comparaison, la demande de l'UE est de 3 300 TWh par an, soit 6 fois plus importante [1].
A2. Facteur de puissance de crête = 1,6x: l'Allemagne a une demande de puissance moyenne de ~ 63 GW (550 TWh ÷ 8,760h). La demande de puissance de pointe réelle en hiver atteint 82 GW. La prise en compte de la marge de sécurité standard de 20% augmente la capacité requise pour la puissance de crête à ~ 100 GW (100 ÷ 63 = 1,59). [2] La demande de pointe augmentera probablement en raison des véhicules électriques et des pompes à chaleur. L'ajustement du facteur de puissance de crête convertit la demande de puissance annuelle moyenne en la demande de puissance de pointe quotidienne, y compris la marge de sécurité qui est nettement supérieure à la moyenne. À titre de comparaison, la demande d'énergie moyenne de l'UE est d'environ 375 GW, soit 6 fois plus élevée.
A3. Facteur de puissance de pointe de secours = 1,5x: La figure 4 illustre la courbe de demande d'électricité typique et la production photovoltaïque au cours d'une journée. Le pic photovoltaïque doit être environ deux fois le pic de demande afin de permettre aux batteries de se recharger pendant les quelques heures ensoleillées vers midi. La figure 2 montre également que la quasi-totalité de l'énergie est produite en seulement un quart de période de 24 heures et rien la nuit. Les auteurs supposent généreusement seulement un facteur de puissance de pointe de secours de seulement 1,5x.
RépondreSupprimerA4. DC / AC et perte de transmission = 30% ou 1,3x: la conversion DC-AC avant la consommation entraîne une perte de 21-24% 3 de la puissance en courant continu produite. Le transport d'électricité vers l'utilisateur final allemand sur environ 1.500 km (distance aérienne de Tolède à Francfort) représentera env. 10% de perte. Ainsi, une perte totale d'environ 30% ou un facteur d'environ 1,3x.
A5. Le DNI annuel moyen en Espagne situé à 41 º de latitude nord est normalisé aux données du plus grand parc solaire américain appelé «Solar Star» [3] situé en Californie, ce qui est bien documenté.
a. Solar Star est l'un des parcs solaires fonctionnels les plus grands, les plus efficaces et les plus modernes au monde, utilisant des panneaux / modules solaires en silicium cristallin à grand facteur de forme, à haute puissance, à haut rendement et à coût plus élevé, montés sur des suiveurs à axe unique. Solar Star a produit 1,66 TWh / p.a. d'électricité CC entre 2017 et 2019. Le parc exploite une capacité solaire photovoltaïque installée totale de 747 MWDC couvrant 13 km2 à l'aide de 1,7 million de panneaux solaires3, soit une capacité installée de 57,5 MW par km².
b. La carte d'irradiation normale directe (DNI) de la figure 1 représente les jours ensoleillés en Espagne. Il s'adapte à la latitude, aux nuages, à la pluie, ainsi qu'aux heures du jour et de la nuit.
c. Facteur ESP / CA DNI = 1,5: Le DNI pour le sud de l'Espagne est d'environ 1,900 W / m2 / p.a., Tandis que le DNI dans le sud de la Californie est d'environ 2,900 W / m2 / p.a. [4], un facteur de 1,53.
ré. Les panneaux solaires peuvent fonctionner pendant 15 ans avant de devoir être remplacés [5].
A6. Facteur de capacité hivernale = 1,8: Le facteur de capacité annuel moyen 2017-2019 de Solar Star en Californie a été mesuré à 24,8% 3. Cela se traduit par un facteur de capacité annuel moyen de 16,5% pour l'Espagne.
a. Les facteurs de capacité mensuels en Californie pour 2018/2019 ont varié de 13,3% en décembre à 33,9% en juin (voir Figure 5), conduisant à un ajustement du facteur de capacité hivernale de 1,8x (24,8% ÷ 13, 3% = 1,86).
b. La figure 2 illustre une sortie PV ensoleillée typique en hiver et en été en Autriche. Le rendement varie également ici de plus de 3: 1 entre l'hiver et l'été.
A7. Gigafactory = 50 GWh de batteries Li-ion: La production annuelle d'une Tesla Gigafactory devrait atteindre jusqu'à 50 GWh de batteries Li-ion. [6]
a. Les matériaux nécessaires pour construire la meilleure technologie de batterie actuelle comprennent le lithium, le cuivre, le cobalt, le nickel, le graphite, les terres rares et la bauxite, le charbon et le minerai de fer (pour l'aluminium et l'acier).
RépondreSupprimerb. On estime que, de manière optimiste, 1 à 2% du gisement réel exploité se retrouve dans le poids de la batterie [7].
A8. Facteur d'utilisation du stockage de la batterie = 1,7: Les batteries rechargeables Li-ion peuvent stocker de l'énergie pendant plusieurs mois et se décharger spontanément ~ 5% de l'énergie stockée dans les premières 24 heures, et à ~ 2% par mois par la suite.
a. L'efficacité de stockage de la charge est de 90 %.
b. La charge à 80% de la capacité et la décharge à 20 % de la capacité préserve la durée de vie de la batterie. L'électronique interne maintient une température de fonctionnement interne optimale de 12 à 16 ºC, un taux de décharge optimal proche de 1 ° C (se réfère à un taux de décharge de 1 Coulomb par heure) [8] et protège les batteries contre les tensions de charge ou de décharge trop élevées ou trop faibles qui endommagent les batteries [ 9].
c. L'électronique de maintenance consomme 3 % par mois de la charge par cellule. Le cycle de décharge diurne doit être soigneusement contrôlé pour préserver la durée de vie de la batterie jusqu'à 7 000 cycles, ce qui équivaut à une durée de vie de 20 ans [10].
ré. En conséquence, en moyenne 50 à 60 % de la capacité de la batterie installée peut être utilisée efficacement, donc un facteur de 1,7x est supposé.
A9. Les auteurs ne prennent pas en compte:
a. Consommation totale d'énergie en Allemagne, environ 5 fois supérieure à la demande d'électricité (y compris le chauffage non électrique, les transports, etc.).
b. L'énergie que l'Allemagne importe d'autres régions du monde parce que l'Allemagne consomme des produits qui nécessitent de l'énergie pour construire (mais ils sont construits en dehors de l'Allemagne, par exemple en Chine, en Inde ou aux États-Unis).
c. Un autre moyen de production d'électricité, 100% solaire depuis l'Espagne, est supposé pour l'Allemagne, ce qui équivaut à plus de 15% de l'UE.
d. Autres moyens de fournir une sauvegarde (autre que la batterie de secours), comme toute capacité conventionnelle d'origine fossile, nucléaire, hydraulique ou hydrogène. Cette hypothèse illustre l'exigence de sauvegarde et se concentre sur les batteries. L'hydrogène est traité dans la section 3.4.
e. Coûts totaux, énergie requise, matériaux nécessaires ou impact environnemental des lignes de transmission et des systèmes de transmission du bâtiment, panneaux solaires du bâtiment (les exigences en silicium et en argent sont mentionnées, les autres matériaux ne le sont pas). On estime que le rendement énergétique de l’énergie solaire investi (eROeI) est trop faible pour soutenir les sociétés avancées [11].
f. Coûts et impact environnemental du recyclage ou de l'élimination des panneaux solaires après leur durée de vie utile. Les coûts de construction, d'entretien et de recyclage ou d'élimination de la capacité de stockage qui devront être remplacés tous les 20 ans ou plus tôt ne sont pas non plus inclus (une estimation est donnée sur les matériaux nécessaires à la construction des batteries).
RépondreSupprimerg. Coût des terres utilisées qui comprend, mais sans s'y limiter, la vie animale détruite, les terres cultivées et les forêts, les villes, les rues, les vallées, les montagnes qui devraient être coupées ou éliminées (voir la figure 3).
h. L'impact des fermes solaires photovoltaïques à grande échelle sur les températures locales dans des environnements non désertiques, ce qui peut avoir un effet thermique substantiel. La lumière du soleil sur la végétation (herbe, arbres) soutient la croissance des plantes et les plantes favorisent le refroidissement transpiratoire. Sur les zones couvertes de panneaux solaires, 70 à 90% de la lumière solaire absorbée ne peut pas être transformée en énergie utile ni être absorbée par les plantes, réchauffant ainsi l'environnement (voir Lu et al. Décembre 2020 et Li et al. Septembre 2018 [12 ]).
i. Effets secondaires positifs tels que la production d'hydrogène vert avec une capacité excédentaire en été. L'hydrogène est brièvement abordé dans la section 3.4.
3. Calcul du PV-Espagne
L’objectif de cet article est de calculer la capacité solaire installée en Espagne (PV-Espagne) nécessaire pour répondre à 100% des besoins en électricité de l’Allemagne, ce qui équivaut à un peu plus de 15% de la demande de l’UE. Pour ce faire, la capacité installée de PV-Espagne doit être suffisante pendant les mois d'hiver. En hiver, cependant, l'énergie solaire est à son minimum tandis que la demande des consommateurs est la plus élevée.
- voir graphique sur site -
Figure 2: Sortie PV ensoleillée typique en hiver et en été (Autriche en 2015 à titre d'illustration).
Source: elkemental Force, Austria, consulté le 4 septembre 2020 à ce lien
3.1. Capacité installée et espace requis par PV-Espagne
À des fins de calcul, les auteurs utilisent le projet Solar Star3 bien documenté en Californie. Solar Star a produit en moyenne 1,66 TWh / p.a. d'électricité DC soit 128 GWh / km² / p.a. (voir A5.a) soit 10,67 GWh / km² / mois avec 747 MW au total et 57,5 MW / km² de capacité installée. La demande d'électricité allemande est en moyenne de 45 TWh ou 45 000 GWh par mois (voir A1).
Par conséquent, il apparaît à première vue que chaque mois 45.000 GWh ÷ 10,67 GWh / km² = 4.220 km² de panneaux solaires en Espagne devrait être suffisant. Cependant, les ajustements suivants détaillés ci-dessus sont nécessaires:
· Ajustement du facteur de puissance de crête de 1,6x (A2),
· Ajustement du facteur de puissance de pointe de secours de 1,5x (A3)
· Ajustement pour la conversion DC / AC et la perte de transmission de 30% (A4) ou un facteur de 1,3x,
· Ajustement de l'irradiance solaire plus élevée de la Californie à l'irradiance solaire inférieure de l'Espagne avec un facteur ESP / CA DNI de 1,5x (A5.c),
· Ajustement du facteur de capacité moyen au facteur de capacité hivernale de 1,8x (A6).
RépondreSupprimerLe total des ajustements requis est de 1,6 x 1,5 x 1,3 x 1,5 x 1,8 = 8,4x. Ainsi, la superficie totale requise de PV-Espagne uniquement pour l'Allemagne devient ~ 35 000 km2 (8,4 x 4,220 km2 = 35,448 km2). Étant donné que les panneaux solaires durent en moyenne 15 ans, cela se traduit par ~ 2.300 km2 de nouveaux panneaux solaires à construire chaque année à perpétuité.
Considérant que Solar Star en Californie a une capacité installée de 747 MWDC, alors PV-Espagne aura une capacité installée totale de 2.000 GW, soit près de 3 fois la capacité solaire installée 2020 dans le monde de 715 GW [13] (35.000 km2 x 57,5 MW / km2 = 2,013 GW). Veuillez noter que PV-Espagne ne couvre que 1 / 5ème de la demande totale d’énergie de l’Allemagne et que l’Allemagne représente 2% des émissions mondiales de CO2 provenant de l’énergie anthropique, sans compter le méthane.
PV-Espagne, d'une superficie d'environ 35 000 km², est surdimensionné pour produire l'énergie électrique nécessaire à l'Allemagne en hiver. La production excédentaire est théoriquement nulle au milieu de l'hiver et augmente jusqu'à un maximum au milieu de l'été. Intégré sur un an, environ la moitié environ de PV-Espagne produit un surplus d'électricité, bien que par intermittence, qui pourrait être utilisé pour l'hydrogène vert ou à d'autres fins telles que la fusion (voir section 3.4).
Les auteurs tiennent à souligner ici que la superficie requise de PV-Espagne pourrait être considérablement réduite si la capacité de secours était multipliée par dix. Cette réduction serait possible si une telle sauvegarde - peut-être également sous forme d'hydrogène - pouvait stocker six mois de la demande d'électricité de l'Allemagne, de sorte que l'énergie collectée et stockée en été puisse alimenter une partie de la demande hivernale de l'Allemagne. Pour correspondre aux besoins en électricité de l’Union européenne, les chiffres ci-dessus devront tous être multipliés par six.
3.2. Capacité de stockage ou sauvegarde
Il est évident que toutes les formes intermittentes de production d'électricité nécessitent une sauvegarde même si le soleil brille «presque» tous les jours ou si le vent souffle «presque» toutes les heures. La sauvegarde doit être telle que la disponibilité électrique qui en résulte chez le consommateur soit fiable à plus de 99 % à tout moment. Une économie qui ne peut pas fournir une énergie fiable à tout moment risque la vie humaine et perd sa pertinence économique dans le contexte mondial.
Nous allons faire deux calculs. A) Calculez la capacité de sauvegarde requise pour une seule journée, en supposant que le soleil brille tous les jours en Espagne. B) Calculez la sauvegarde pour 14 jours de temps nuageux, ce qui se produit rarement mais s'est produit en Espagne en janvier 2021 avec une chute de neige de 50 cm sur plusieurs jours, nécessitant plusieurs jours de plus pour fondre des panneaux photovoltaïques car la température était inférieure à zéro. Le lecteur doit faire son propre calcul.
Un jour de la demande allemande équivaut à 1,5 TWh (A1). Il semble qu'un stockage correspondant à cette demande quotidienne suffirait. Cependant, comme indiqué ci-dessus, les ajustements suivants sont nécessaires:
RépondreSupprimer· Ajustement du facteur d’utilisation du stockage de la batterie de 1,7x (A8),
· Ajustement de la conversion CC / CA et de la perte de transmission de 30 % (A4) ou d'un facteur de 1,3x,
· Les piles durent 20 ans (A8.c).
Ainsi, la demande énergétique quotidienne de 1,5 TWh en Allemagne doit être multipliée par un facteur de 1,7 x 1,3 = 2,2x. Par conséquent, la capacité de stockage d'une journée requise qui en résulte augmente à ~ 3,3 TWh ou la production d'environ 65 Gigafactories. Étant donné que les batteries durent 20 ans, plus de 3 Gigafactories devraient produire 165 GWh de capacité de batterie par an à perpétuité juste pour une capacité de stockage d'une journée. Au cours de ces années de production, aucune Tesla n'a pu être produite.
Une sauvegarde de stockage de 14 jours plus réaliste pour l'Allemagne pendant l'hiver nécessite environ 45 TWh de stockage sur batterie. La production d'environ 900 Gigafactories est nécessaire pour la construction des batteries en un an, puis la production d'environ 45 Gigafactories ou 2,25 TWh est nécessaire pour le remplacement annuel des batteries à perpétuité (45 TWh / 50 GWh / 20 ans). A titre de comparaison, le remplacement des batteries à lui seul dépasse la production mondiale actuelle de batteries de 0,5 TWh en 2020 par un facteur de 4 à 5x. Pour correspondre aux besoins de stockage de l'Union européenne, les nombres ci-dessus devront être multipliés par six.
- voir carte sur site -
Figure 3: Couverture mondiale et espagnole des terres cultivées, superficie fractionnée des terres cultivées.
Sources: Ramankutty et Foley 1999, Cropland Intensity 1992, consulté le 4 septembre 2020 à ce lien; Castillo et al., An Assessment and Spatial Modeling of Agricultural Land Abandonment in Spain (2015-2030), consulté le 4 septembre 2020 à ce lien.
3.3. Espagne contre Sahara contre Californie
En mai 2020, energypost.eu [14] a annoncé que «10 000 km2 d’énergie solaire au Sahara pourraient répondre à tous les besoins énergétiques du monde». L'auteur energypost.eu a fait référence au célèbre livre de MacKay: «Sustainable Energy - without the hot air» [15]. Cette affirmation est réfutée par l'auteur MacKay lui-même qui déclare à la page 178 que «Pour fournir à chaque personne dans le monde la consommation électrique moyenne d'un Européen (125 kWh / j), la superficie requise serait de deux carrés de 1.000 km sur 1.000 km dans le désert". Cela représente 2 000 000 km² et non 10 000 km².
Les calculs des auteurs pour l'Allemagne alimentée par l'énergie solaire photovoltaïque au Sahara, en ajustant l'irradiation A5.c et la figure 1 dans les différentes régions, sont les suivants:
1. Sud de l'Espagne ~ 1.900 W / m² / p.a.
RépondreSupprimer2. Californie du Sud ~ 2 900 W / m² / p.a.
3. Sahara ~ 2.300 à 2.600 W / m² / p.a.
4. Inde ~ 1 300 à 1 900 W / m² / p.a.
5. Asie du Sud-Est <1.500 W / m² / p.a.
(exemple Indonésie, Vietnam, Thaïlande, Myanmar, Malaisie)
La première observation est qu'en moyenne, l'Inde et l'Asie du Sud-Est ont des conditions d'ensoleillement pires que celles du sud de l'Espagne. C'est principalement le résultat de la mousson. Pour le Sahara à une latitude de 22 ºN, la carte DNI (Figure 1) montre que, à l'exception d'une région centrale, le Sahara a un DNI inférieur à celui de la Californie du Sud mais est supérieur à l'Espagne. Cependant, ni MacKay ni les auteurs de l'article energypost.eu n'ont examiné les problèmes clés suivants avec le Sahara ou, en fait, avec une solution solaire basée sur le désert: manque d'eau, manque d'infrastructures, températures élevées, brume, poussière et, surtout, les tempêtes de sable.
Nomadd [16], fondée à l'Université des sciences et technologies King Abdullah d'Arabie saoudite en 2012, a étudié ce sujet de manière intensive et conclut que «l'accumulation de poussière est le plus grand défi technique auquel est confrontée une industrie solaire viable et désertique. Une perte de rendement de base de 0,4-0,8% par jour causée par la poussière. Des pertes de rendement énergétique de 60% pendant et après les tempêtes de sable sont largement rapportées. Si elles sont laissées plus d'une journée, les particules de poussière des matières organiques, de la rosée et du soufre adhèrent aux panneaux ». Solar Star en Californie a besoin de près de 200 000 m3 d'eau par an pour laver les panneaux pour le contrôle de la poussière [17]. Si les conditions de poussière au Sahara étaient similaires (elles sont beaucoup plus strictes), alors les précipitations sur environ 250 km² devraient être collectées et utilisées pour le lavage, ce qui nécessiterait également des installations de stockage et de distribution.
De nombreuses études évaluées par des pairs ont étudié la question des tempêtes de sable et des grands parcs solaires dans le désert, mais jusqu'à présent, aucune solution à grande échelle commercialement viable n'a été trouvée. Le nomadd saoudien suggère cependant que le système Nomadd16 lui-même peut fonctionner sans eau et nettoyer un panneau solaire en deux heures. Le système n'a pas été mis en œuvre à grande échelle et les coûts / entretien et les effets abrasifs sur la surface du panneau doivent être détaillés. Les méthodes électrostatiques d'élimination de la poussière des éléments photovoltaïques, comme prévu par l'ACWA en Arabie saoudite, ont été étudiées et sont prometteuses. Aucune pièce mobile ni eau ne seraient alors nécessaires [18]. Ces méthodes réduisent le besoin de nettoyage eau-surfactant mais peuvent ne pas l'éliminer.
De plus, le désert atteint régulièrement des températures supérieures à 50 ºC. Couplé au chauffage par l’énergie solaire absorbée, l’efficacité des panneaux diminue d’au moins 0,5% par ºC au-dessus de 0 ºC [19]. Cela signifie que l'augmentation de la température typique d'une température matinale typique de 10 ºC à une température l'après-midi allant jusqu'à 50 ºC entraînera une perte d'efficacité allant jusqu'à 20%. Cela nécessite un PV-Sahara encore plus grand pour répondre à la demande énergétique mondiale. De plus, l'expansion-contraction constante des cycles diurnes de plus de 35 ºC met en tension les connexions électriques et physiques des panneaux, ce qui conduit à des pannes. Les durées de vie des panneaux photovoltaïques dans le désert du Sahara sont probablement bien inférieures aux 15 ans typiques. La NASA [20] conclut que «l'énergie solaire dans le désert pose certains défis. Selon IEEE Spectrum, des températures extrêmement élevées peuvent parfois endommager les onduleurs, qui convertissent la puissance CC produite par le photovoltaïque en puissance CA nécessaire au réseau. Les transformateurs haute tension sont également sujets à une perte d'efficacité et à des pannes à haute température. »
RépondreSupprimerEn conclusion, même si les auteurs supposent que la poussière, la brume et les tempêtes de sable ne sont pas des problèmes et supposent un facteur DNI Sahara / CA de 1,1x et réduisent le facteur de capacité hivernale à 1,3 optimiste, ce qui suit s'applique:
Le total des ajustements requis par rapport à la Californie est de 1,6 x 1,5 x 1,3 x 1,1 x 1,3 = 4,5x. Ainsi, la superficie totale requise de PV-Sahara pour l'Allemagne devient ~ 19 000 km² (4,5 x 4,220 = 18,990 km²). Si l'on prend désormais le monde 27.000 TWh contre l'Allemagne 550 TWh, il faut multiplier les 19.000 km² par 49x, soit ~ 1.000.000 km², pour fournir de l'électricité au monde entier avec du solaire photovoltaïque au Sahara. C'est la moitié de la superficie requise par MacKay parce qu'il a supposé une consommation européenne moyenne pour le monde entier. À l'heure actuelle, plus de 600 millions de personnes en Afrique n'ont aucun accès à l'électricité. Cependant, il faut considérer que les calculs ci-dessus et en fait aussi les chiffres de MacKay sont trop optimistes en raison du manque d’eau, du manque d’infrastructures, des températures élevées, de la brume, de la poussière et, surtout, des tempêtes de sable.
Un parc solaire à grande échelle au Sahara aurait un impact négatif sur le climat en réchauffant l'atmosphère de façon notable d'environ 1 ºC, comme discuté par Lu et al. dans leur étude de décembre 2020 Impacts of Large-Scale Solar Farms on Global Climate and Vegetation Cover12. En outre, la tâche de stockage et de transmission de l'énergie aux consommateurs du monde entier serait beaucoup plus difficile et il n'y aurait pas suffisamment de matières premières disponibles dans n'importe quel scénario pour construire les panneaux solaires nécessaires pour le monde.
L'énergie solaire concentrée (CSP - essentiellement un «four solaire» où la lumière du soleil est concentrée sur une cible pour la chauffer) ne semble pas être une alternative viable comme le démontrent de nombreux problèmes d'efficacité avec les centrales CSP de Californie. Un système hybride PV-CSP proposé utiliserait la partie restante du spectre solaire que le silicium ne peut pas absorber pour faire bouillir l'eau pour un moteur à cycle Rankine. Ivanpah et d'autres centrales CSP en Californie produisent peu d'électricité en hiver en raison d'une baisse saisonnière 7x du facteur de capacité [21]. Ainsi, l'utilisation d'une petite partie seulement du spectre solaire sera encore plus inefficace. Dans le contexte de la production de H2, une approche hybride pourrait être envisagée.
- voir graphique sur site -
RépondreSupprimerFigure 4: Courbe de demande d'électricité typique et production photovoltaïque. Le pic photovoltaïque doit être environ deux fois le pic de demande.
Source: Courbe de demande d'électricité nominale avec schéma de production photovoltaïque par les auteurs, adapté d'EnergyMag consulté le 4 septembre 2020 à ce lien.
3.4. Hydrogène et PV-Espagne
Le H2 peut être produit par électrolyse en utilisant la production d’électricité excédentaire de PV-Espagne en été. Les gouvernements européens suggèrent que «l'hydrogène vert» résoudra le problème d'intermittence de l'éolien et du solaire via la production synthétique de H2 comme vecteur d'énergie. Cependant, avec la technologie actuelle, la faible densité d’énergie volumétrique de l’hydrogène et son coût de transport élevé constituent un obstacle à une large utilisation du H2. Le stockage de H2 comprimé nécessite des cylindres de stockage robustes de substances qui ne deviennent pas fragiles lorsque H2 pénètre dans le matériau. Plus d'énergie est nécessaire pour comprimer ou liquéfier et transporter le H2 - énergie qui doit également être dérivée de l'énergie excédentaire de PV-Espagne disponible pendant les mois d'été.
Au sujet des transports, Bossel et al. [22] a conclu que «À 200 bars, un camion de 40 tonnes livre environ 3,2 tonnes de méthane, mais seulement 320 kg de H2, en raison de la faible densité d'hydrogène et du poids des réservoirs sous pression et des armatures de sécurité. Il faut environ 4,6 fois plus d’énergie pour transporter l’H2 dans un pipeline que pour le même transport d’énergie au gaz naturel. » Les gazoducs peuvent souffrir du transport de H2. Le H2 a tendance à pénétrer les tuyaux en acier, ce qui les rend cassants et augmente les taux de défaillance. L'ACWA en Arabie saoudite prévoit de produire de l'ammoniac en combinaison avec H2 pour alléger la charge de transport de l'hydrogène [23]. Nous n'avons pas considéré l'efficacité de ce concept hybride H2-NH3.
Il convient de noter, cependant, que des recherches et des progrès importants ont été réalisés ces dernières années en ce qui concerne les soi-disant «éponges à hydrogène» (voir Morris et al. 2019, et Northwestern University à titre d'exemple [24]). Certains candidats semblent atteindre 8% en poids de H2. Les matériaux utilisés sont relativement peu coûteux et abondants, tels que les métaux de transition et les réseaux de carbone comme échafaudage pour les métaux. Dans un avenir pas trop lointain, ce travail promet d'aboutir à une «révolution H2» permettant un support approprié pour stocker le H2 de manière dense présentant une alternative potentiellement viable au stockage sur batterie lithium-ion. Une batterie Tesla de 500 kg, par exemple, contient moins de 100 kWh d'énergie. Le «réservoir» de H2 métal-organique contenant 8% de H2 en poids contient environ 1 300 kWh d’énergie, soit plus de 13 fois la densité d’énergie de la batterie Li-ion Tesla. Cela se traduirait par une autonomie de plus de 4 000 km. Le ravitaillement ne serait donc pas une tâche quotidienne.
PV-Espagne, d'une superficie d'environ 35 000 km², est surdimensionné pour produire l'énergie électrique nécessaire à l'Allemagne en hiver. La production excédentaire est théoriquement nulle au milieu de l'hiver et augmente jusqu'à un maximum au milieu de l'été. Intégré sur un an, environ la moitié environ de PV-Espagne produit généreusement un surplus d'électricité qui peut être utilisé pour l'hydrogène.
Avec un facteur de capacité annuel moyen pour l'Espagne de 16,5% (voir A6), PV-Espagne avec une capacité installée de 2.000 GW produit environ 2.900 TWhDC d'électricité (2.000 GW x 16,5% x 8.760h = 2.891 TWh). Au lieu d'une batterie de secours, de l'hydrogène peut être produit en Allemagne près du point de consommation. L'électrolyse de H2O en H2 puis l'utilisation de H2 dans une pile à combustible peuvent donner un rendement net global d'environ 40 %. Ensuite, il y a les 30 % supplémentaires AC / DC et la perte de transmission. Ainsi, PV-Espagne produirait annuellement environ 800 TWh d'électricité en Allemagne via H2. Cela remplacerait l’ensemble de la batterie de secours calculée ci-dessus et serait suffisant pour la consommation électrique totale de l’Allemagne plus une grande partie des besoins énergétiques du secteur des transports. L'autre option consiste à n'utiliser «que» l'excédent de puissance produite en PV-Espagne d'environ 1,450 TWh (la moitié de 2 900 TWhDC) et de le convertir en ~ 600 TWh d'hydrogène utilisable pour le secteur des transports (en supposant 30% de perte de transmission AC / DC et 60 % d'efficacité d'électrolyse). Cependant, les défis physiques liés au transport efficace de H2 sur de plus grandes distances demeurent et ont été abordés ci-dessus.
RépondreSupprimerLes auteurs notent qu'une solution de stockage à base d'hydrogène ne résout pas les problèmes sous-jacents des installations solaires illustrés dans cet article, qui sont principalement un apport élevé en matières premières, une faible densité d'énergie et un faible eROeI.
- voir graphique sur site -
Figure 5: Facteur de capacité solaire photovoltaïque de la Californie 2018-2020.
Remarque: les valeurs pour 2019 et les années précédentes sont définitives. Les valeurs pour 2020 sont préliminaires. Pour 2020, seules les données de janvier à novembre sont prises en compte.
Source: EIA, consulté le 3 janvier 2020 à ce lien
4. Besoins en matières premières
Pour les panneaux solaires: La production mondiale de silicium a été d'environ 7,5 millions de tonnes métriques par an. depuis 2010 [25]. Environ 2 à 4 kg de Si sont nécessaires par plaque signalétique de 1 kW Panneau solaire de 6 à 7 m² [26]. Les auteurs supposent 2 kg et 7 m² ou 0,29 kg de Si par m² de panneau solaire.
Cela signifie que la production mondiale actuelle de silicium pourrait produire 26.000.000.000 m² ou 26.000 km² de panneaux solaires par an (7.500.000.000 kg de silicium ÷ 0,29 kg / m²). Puisque nous devons construire une fois 35.000 km² puis 2.300 km² de panneaux solaires chaque année à perpétuité juste pour l'Allemagne, cela se traduit par une fois ~ 10 millions de tonnes de silicium ou 1,35x la production mondiale de silicium, puis ~ 660.000 tonnes de silicium par an ou ~ 9 % pour cent de la production mondiale actuelle de silicium à perpétuité. Bien sûr, il vous reste beaucoup moins de silicium pour produire tout autre produit de silicium requis au niveau mondial, comme des puces informatiques ou du verre. Sur une note latérale, les films minces de silicium polycristallin pourraient permettre une plus grande surface de photovoltaïque, mais à partir d'aujourd'hui se traduiraient par la moitié de l'efficacité quantique et une stabilité plus faible nécessitant un remplacement plus fréquent.
Le silicium a été abordé ci-dessus, mais l'argent de haute qualité qui est produit principalement en Amérique latine et en Chine est également un ingrédient essentiel pour les panneaux solaires. CRU estime qu'en 2019, environ 11% de la production mondiale de 27 000 tonnes d'argent a été consacrée à des panneaux solaires et qu'une cellule solaire nécessite environ 0,1 mg d'argent [27]. En supposant 72 cellules par panneau de 2 m², cela se traduit par environ 7 g d'argent par panneau de 2 m² ou 3,5 tonnes d'argent par km². Puisque nous devons construire une fois 35.000 km² puis 2.300 km² de panneaux solaires chaque année à perpétuité juste pour l'Allemagne, cela se traduit par une fois ~ 120.000 tonnes d'argent ou 4,5x la production mondiale d'argent, puis ~ 8.000 tonnes d'argent par an ou ~ 30 % de la production mondiale actuelle d'argent à perpétuité. La récupération de l'argent des panneaux recyclés serait essentielle. Une conclusion similaire a été tirée par Zoltan Ban [28] dont le besoin est le double de la quantité d'argent que les auteurs ont supposée. Comme aujourd'hui, l'utilisation de matériaux alternatifs tels que l'aluminium ou les conducteurs organiques se traduit par une efficacité inférieure des panneaux et une durée de vie raccourcie des panneaux. Pour correspondre aux besoins en électricité de l’Union européenne, les chiffres ci-dessus devront être multipliés par six.
RépondreSupprimerPour les batteries: Pour calculer les besoins matériels approximatifs pour un parc de batteries d'une capacité de plaque signalétique de 45 TWh utilisant la dernière technologie de Tesla, le poids d'une batterie Tesla peut être supposé être d'environ 500 kg avec une capacité de 85 kWh, un facteur de 5,9 kg. par kWh [29]. Cependant, pour être généreux, les auteurs réduisent de moitié le poids de la batterie à 250 kg, à 2,9 kg par kWh actuellement encore impossible, dans d'autres calculs.
Compte tenu du fait que 1 à 2% du gisement minéralisé finit dans la batterie (A7.a) et compte tenu de la réduction de moitié du poids de la batterie, cela se traduirait par 8 à 15 millions de tonnes de matières premières par an pour une usine de 50 GWh à extraire, transporter et traiter comme le lithium, le cuivre, le cobalt, le nickel, le graphite, les terres rares et la bauxite, le charbon et le minerai de fer (pour l'aluminium et l'acier). De plus, l'extraction, le transport et la transformation de ces matières premières nécessitent une énergie importante.
En résumé, les matières premières nécessaires pour que les batteries maintiennent PV-Espagne sauvegardées pendant 14 jours se traduiraient par une demande ponctuelle de 900 Gigafactories (45 TWh) ou 7-13 milliards de tonnes puis 45 Gigafactories (2,25 TWh) ou 0 , 4-0,7 milliards de tonnes de matières premières par an à perpétuité. Pour le seul remplacement des batteries, cela équivaut à 0,5-1% de toutes les matières premières extraites dans le monde de 92 milliards de tonnes [30] juste pour créer une sauvegarde pour l'Allemagne (un peu plus de 15% de l'UE), un pays qui abrite ~ 1% de la population mondiale. Pour répondre à l'ensemble des besoins de stockage de l'Union européenne, les chiffres ci-dessus devront être multipliés par six.
Parmi les autres matériaux permettant de construire annuellement à perpétuité les 2,25 TWh de capacité de batterie requis pour l'Allemagne, on peut citer [31]:
RépondreSupprimer· ~ 6x production mondiale actuelle de lithium (~ 880 tonnes de lithium pour 1 GWh, production 2020 d'environ 320 000 tonnes, ~ 70 % de Chine),
· ~ 22 fois la production mondiale actuelle d'anodes en graphite (~ 1.200 tonnes d'anodes en graphite pour 1 GWh, production 2020 d'environ 210.000 tonnes, ~ 80 % de Chine),
· ~ 2x production mondiale actuelle de cobalt (~ 100 tonnes de cobalt pour 1 GWh, production 2020 d'environ 120.000 tonnes, ~ 80 % en provenance de Chine), et
· ~ 8 fois la production mondiale actuelle de sulfite de nickel (~ 800 tonnes de sulfite de nickel par 1 GWh, production 2020 d'environ 230 000 tonnes [32], ~ 60 % en provenance de Chine).
5. Résumé
À moins que les considérations de sécurité, d'espace, d'environnement, de matières premières et d'énergie ne puissent être surmontées, PV-Espagne est un mauvais choix pour résoudre le dilemme de l'Allemagne, de l'Europe ou de l'énergie mondiale. Seules les exigences matérielles pour les panneaux (voir silicium et argent) ou les batteries ne peuvent pas être satisfaites. De plus, l'énergie requise pour construire et entretenir les batteries d'une si grande installation solaire en Espagne - également appelée eROeI investie en énergie avec retour sur énergie - n'a pas encore été prise en compte dans cet article.
S'il n'est pas logique de remplacer la demande d'électricité de l'Allemagne (ou un peu plus de 15% de la demande de l'UE) par du solaire en provenance d'Espagne, pourquoi serait-il judicieux de remplacer à elle seule une fraction des besoins en énergie des panneaux solaires installés plus au nord de l'Espagne ou en L'Inde ou l'Asie d'ailleurs, où les conditions d'ensoleillement naturel sont pires ? [33]
Des alternatives à la technologie solaire photovoltaïque actuellement disponible, ainsi que des recherches supplémentaires pour comprendre l'apport de matériaux et d'énergie, sont nécessaires pour la transition énergétique proposée loin de l'énergie conventionnelle. Le photovoltaïque solaire peut être un choix environnemental et économique pour certaines exigences électriques locales sans accès à des réseaux à grande échelle, ou pour augmenter les besoins énergétiques non critiques pour des besoins énergétiques sélectionnés - non à l'échelle.
Remarque: Le silicium est produit essentiellement à partir de silice (pierre de quartz), de copeaux de bois et de charbon. Le silicium est le deuxième élément le plus abondant dans la croûte terrestre, mais à ce jour, seule la silice de haute pureté (pierre de quartz) est commercialement viable. Le silicium de qualité métallurgique (MG-Si, pureté d'environ 98%) est fabriqué à une température de procédé de plus de 2 000 ºC dans des fours à arc électrique qui nécessitent également du charbon pour la réduction et l'énergie. Le silicium de qualité solaire (SoG-Si, 99,9999% de pureté) et le silicium de qualité électronique (EG-Si, 99,9999999 % de pureté) sont ensuite produits à partir de silicium de qualité métallurgique dans un processus de raffinage («Siemens» ou autres processus) qui nécessitent à nouveau de grandes quantités d'énergie et également de produits chimiques. [34]
RépondreSupprimer[1] Données estimées selon Agora et europa.eu, consultées le 4 septembre 2020 sur ce lien et ce lien.
[2] Selon Wikipedia, Agora, BMWI et entso-e, consulté le 3 janvier 2021, la demande de puissance de pointe réelle de l'Allemagne atteint jusqu'à 82 GW en hiver.
[3] Faits sur Solar Star et les plus grands parcs solaires du monde, consulté le 3 janvier 2021 sur ce lien et ce lien.
[4] Solargis: Solar Irradiance Data, consulté le 3 janvier 2020 à ce lien.
[5] Aleo Solar: Durée de vie des panneaux solaires - Les 6 choses à savoir, consulté le 3 janvier 2021 sur ce lien.
[6] Nevada Gigafactory espérant atteindre une production de 40 GWh selon Rich Duprey, The Motley Fool, consulté le 4 septembre 2020 sur ce lien.
[7] Peu de recherches ont été faites sur ce sujet, cette hypothèse semble réaliste et conservatrice et a été approuvée par les auteurs. Reportez-vous à Mark Mills, consulté le 4 septembre 2020 sur ce lien et ce lien.
[8] Un taux de 1C signifie que le courant de décharge déchargera toute la batterie en 1 heure. Pour une batterie d'une capacité de 100 ampères-heures, cela équivaut à un courant de décharge de 100 ampères. Un taux de 5C pour cette batterie serait de 500 ampères, et un taux de C / 2 serait de 50 ampères.
[9] Hagopian: Battery Degradation and Power Loss, BatteryEducation.com, avril 2006, consulté le 3 janvier 2021 sur ce lien.
[10] BatteryUniversity: What’s the Best Battery?, Mars 2017, consulté le 3 janvier 2021 à ce lien.
[11] Brook: The Catch-22 of Energy Storage, Energy Central sur eROeI, août 2014, consulté le 3 janvier 2021 à ce lien.
[12] Lu et al.: Impacts des grandes fermes solaires du Sahara sur le climat mondial et la couverture végétale; AGU Research Letter, décembre 2020, consulté le 15 février 2021 à ce lien; voir aussi Li et al.: Le modèle climatique montre que les parcs éoliens et solaires à grande échelle au Sahara augmentent la pluie et la végétation; Science Magazine, septembre 2018, consulté le 15 février 2021 à ce lien
[13] La capacité solaire installée mondiale totale en 2020 était de 715 GW selon l'AIE, consultée le 3 janvier 2020 sur ce lien.
RépondreSupprimer[14] Energy Post: 10 000 km² de Solar in the Sahara, mai 2020, consulté le 5 janvier 2021 sur ce lien.
[15] David MacKay: Énergie durable - sans l'air chaud, novembre 2008, consulté le 5 janvier 2021 à ce lien.
[16] NOMADD: The Desert Solar Challenge, consulté le 5 janvier 2021 sur ce lien.
[17] BHE Renewables: Just the Facts - Solar Star Projects, mars 2017, consulté le 15 janvier 2021 à ce lien.
16 NOMADD: The Desert Solar Challenge, consulté le 5 janvier 2021 sur ce lien.
[18] Kawamoto: Équipement de nettoyage électrostatique pour le dépoussiérage des panneaux solaires souillés, Journal of Electrostatics,
Volume 98, mars 2019, pages 11-16, consulté le 15 janvier 2021 à ce lien.
[19] Moharram et al .: Enhancing the performance of photovoltaic panels by water cooling, Ain Shams Engineering Journal, Volume 4, Issue 4, December 2013, Pages 869-877, consulté le 5 janvier 2021 à ce lien.
[20] Nasa.gov: Catching Rays in the Desert, consulté le 5 janvier 2021 sur ce lien.
[21] Information sur Ivanpah Solar Power Facility, consultée le 15 janvier 2021 à ce lien.
[22] Bossel et al ..: The Future of the Hydrogen Economy: Bright or Bleak ?, Cogeneration and Competitive Power Journal Volume 18, Issue 3, 2003, consulté le 10 janvier 2021 à ce lien.
[23] Air Products: ACWA Power et NEOM signent un accord pour une installation de production de 5 milliards de dollars, juillet 2020, consulté le 18 janvier 2021 à ce lien.
[24] Université du Nord-Ouest: la méthode de stockage du gaz pourrait aider les véhicules à énergie propre de prochaine génération, avril 2020, consulté le 10 janvier 2021 à ce lien; and Morris et al.: A manganese hydride molecular sieve for practice hydrogène storage in ambient conditions, Energy & Environmental Science, numéro 5, 2019, consulté le 10 janvier 2021 sur ce lien.
[25] Statista: Production de silicium dans le monde de 2010 à 2019, février 2020, consulté le 4 septembre 2020 à ce lien.
[26] Stack Exchange, consulté le 4 septembre 2020 à ce lien.
[27] The Silver Institute: Market Trend Report, juin 2020, consulté le 15 octobre 2020 à ce lien; et Statista: Production minière mondiale d'argent de 2005 à 2019, février 2020, consulté le 15 octobre 2020 à ce lien.
[28] Interdiction de Zoltan: pas assez d'argent pour alimenter le monde même si l'efficacité de l'énergie solaire devait quadrupler, Seeking Alpha, février 2017, consulté le 4 novembre 2020 à ce lien.
[29] Les Powerwalls de Tesla conçus pour l’alimentation de secours ont une capacité de 13,5 kWh et un poids de 114 kg, châssis compris. En supposant que 100 kg est le poids net de la batterie, cela se traduit par 7,4 kg par kWh, donc moins efficace que les batteries de voiture de Tesla, mais les auteurs restent optimistes et négligent cela.
[30] WU Vienna (2020): Material flows by material group, 1970-2017, consulté le 4 janvier 2021 sur ce lien.
RépondreSupprimer[31] Benchmark Mineral Intelligence Data 2020, consulté le 3 janvier 2021 sur ce lien et ce lien.
[32] Bien que le marché total du nickel soit important (plus de 2,3 millions de tonnes), seule une fraction est destinée à la fabrication de sulfate de nickel pour l'utilisation des batteries lithium-ion, voir également la note de bas de page 30 pour plus de détails.
[33] Le dernier projet de parc photovoltaïque de 180 MW en Allemagne par le service public ENBW, situé dans le Brandebourg, à plus de 50 º de latitude nord, ne sera pas en mesure d'atteindre sa prétendue production d'énergie avec des matériaux PV réalisables. Le projet est résumé par ENBW, consulté le 20 janvier 2021 à ce lien.
[34] Bine Information Services, consulté le 4 septembre 2020 à ce lien; and PV Education, consulté le 4 octobre 2020 à ce lien.
https://wattsupwiththat.com/2021/03/07/how-many-km2-of-solar-panels-in-spain-and-how-much-battery-backup-would-it-take-to-power-germany/
Annulation de l'AMO
RépondreSupprimerRepublié par le Dr Judith Curry, Climate Etc.
Publié le 6 mars 2021 par curryja
Conclusion du nouvel article de Michael Mann: «Nous concluons qu’il n’existe aucune preuve convaincante d’oscillations multidécennales internes dans le système climatique.»
Article le plus récent de Michael Mann:
Oscilliations climatiques multidécennales au cours du dernier millénaire sous l'effet du forçage volcanique
Abstrait. Des recherches antérieures plaident en faveur d'une oscillation interne multidécennale (40 à 60 ans) distincte du bruit climatique. Des études récentes ont affirmé que cette soi-disant oscillation multidécennale atlantique est plutôt une manifestation d'effets concurrents variant dans le temps des gaz à effet de serre anthropiques et des aérosols sulfatés. Cette conclusion est étayée par l'absence d'oscillations climatiques multidécennales robustes dans les simulations de contrôle des modèles de génération actuelle. Les données paléoclimatiques, cependant, démontrent un comportement oscillatoire multidécennal au cours de l'ère préindustrielle. En comparant les simulations de contrôle et les simulations forcées du «dernier millénaire», nous montrons que ces apparentes oscillations multidécennales sont un artefact d'impulsions d'activité volcanique de l'ère préindustrielle qui se projettent nettement sur la bande de fréquences multidécennale (50 à 70 ans). Nous concluons qu'il n'y a aucune preuve convaincante d'oscillations multidécennales internes dans le système climatique.
Extrait du communiqué de presse de Penn State Cycle de réchauffement de l'Atlantique apparent, un artefact du forçage climatique:
«C'est quelque peu ironique, je suppose», a déclaré Michael E. Mann, professeur distingué de science atmosphérique et directeur du Earth System Science Center, Penn State. «Il y a deux décennies, nous avons amené l'AMO dans la conversation, en faisant valoir qu'il y avait une oscillation climatique interne naturelle à long terme centrée dans l'Atlantique Nord sur la base des observations et des simulations limitées qui étaient disponibles à l'époque, et en inventant le terme 'AMO. «De nombreux autres scientifiques ont utilisé le concept, mais nous avons maintenant bouclé la boucle. Mes co-auteurs et moi-même avons montré que l'AMO est très probablement un artefact du changement climatique induit par le forçage humain à l'ère moderne et le forçage naturel à l'époque préindustrielle.
Les chercheurs ont précédemment montré que le cycle AMO apparent à l'ère moderne était un artefact du changement climatique induit par l'industrialisation, en particulier la concurrence entre le réchauffement du siècle dernier dû à la pollution par le carbone et un facteur de refroidissement compensatoire, la pollution industrielle par le soufre, qui était le plus fort de la Années 1950 grâce à l'adoption des Clean Air Acts dans les années 1970 et 1980. Mais ils ont ensuite demandé, pourquoi le voyons-nous encore dans les disques préindustriels ?
Leur conclusion, rapportée aujourd'hui (5 mars) dans Science, est que le signal précoce a été causé par de grandes éruptions volcaniques au cours des siècles passés qui ont provoqué un refroidissement initial et une lente récupération, avec un espacement moyen d'un peu plus d'un demi-siècle. Le résultat ressemble à une oscillation irrégulière de type AMO d'environ 60 ans.
«Certains scientifiques des ouragans ont affirmé que l'augmentation des ouragans de l'Atlantique au cours des dernières décennies est due à la montée en puissance d'un cycle interne d'AMO», a déclaré Mann. «Notre dernière étude semble être le dernier clou dans le cercueil de cette théorie. Ce qui a été attribué dans le passé à une oscillation interne d'AMO est plutôt le résultat de facteurs externes, y compris le forçage humain pendant l'ère industrielle et le forçage volcanique naturel pendant l'ère préindustrielle.
RépondreSupprimerMann a un article de blog sur le papier à RealClimate
Wow. D'un seul coup, les problèmes embêtants du `` grand hiatus '' au milieu du XXe siècle, les débats sur l'attribution du réchauffement du XXe siècle et le rôle de la variabilité interne multidécennale, et la difficulté d'attribuer l'augmentation récente de l'activité cyclonique de l'Atlantique à AGW , tout s'en va. Brillant! Presque aussi «brillant» que le bâton de hockey.
En l'occurrence, j'ai un brouillon de chapitre dans ma poche à partir d'un rapport que j'écris, j'ai extrait le texte pertinent ci-dessous (excusez-moi de ne pas avoir de liens vers les références):
9. variabilité multidécennale atlantique
L'océan Atlantique est particulièrement important pour la circulation océanique mondiale en raison de l'existence de la formation des eaux profondes de l'Atlantique Nord (NADW) dans le nord de l'Atlantique Nord, une composante vitale de la circulation méridienne de retournement de l'Atlantique (AMOC). L'AMOC comprend l'écoulement vers le nord de l'eau salée chaude dans l'Atlantique supérieur et l'écoulement vers le sud du NADW frais froid transformé dans l'Atlantique profond, qui est un moteur majeur du transport de chaleur considérable vers l'Atlantique nord à travers l'équateur.
Des fluctuations multidécennales à l'échelle du bassin ont été observées dans la température de surface de la mer de l'Atlantique (SST). La variabilité multidécennale à grande échelle observée dans l'Atlantique a été appelée oscillation multidécennale atlantique (AMO). Le caractère multidécennal de l'AMO se distingue de la variabilité interannuelle des océans forcée par le principal mode de variabilité de la circulation atmosphérique sur l'Atlantique Nord, l'Osc de l'Atlantique Nord
Des fluctuations multidécennales à l'échelle du bassin ont été observées dans la température de surface de la mer de l'Atlantique (SST). La variabilité multidécennale à grande échelle observée dans l'Atlantique a été appelée oscillation multidécennale atlantique (AMO). Le caractère multidécennal de l'AMO se distingue de la variabilité interannuelle des océans forcée par le principal mode de variabilité de la circulation atmosphérique sur l'Atlantique Nord, l'oscillation nord-atlantique (NAO). Le terme de variabilité multidécennale atlantique (VMA) est souvent utilisé, car les fluctuations multidécennales observées dans l'Atlantique peuvent ne pas être une oscillation à une seule fréquence, mais consister en une bande plus large de signaux basse fréquence.
9.1 Définition de l'indice et climatologie
L'oscillation multidécennale atlantique (AMO) est associée aux fluctuations de la SST et de la pression au niveau de la mer (SLP) à l'échelle du bassin. Pour la phase AMO positive, cela est parfois présenté comme un réchauffement presque uniforme de l'Atlantique Nord. L'indice AMO traditionnel associe la phase AMO positive à un schéma d'anomalies SST en forme de fer à cheval dans l'Atlantique Nord avec un réchauffement prononcé dans le tropical et certaines parties de l'Atlantique Nord subtropical oriental, une zone anormalement fraîche au large de la côte est des États-Unis, et des anomalies chaudes. entourant la pointe sud du Groenland.
- voir graphique sur site -
RépondreSupprimerGraphique 9.1. Indice d'oscillation multidécennale de l'Atlantique (1880-2018).
Les 100 à 150 dernières années des SST de l'Atlantique sont caractérisées par une augmentation nette d'un siècle et des périodes de réchauffement et de refroidissement multidécennaux. Cependant, la justification de la séparation «Tendance + AMO» est confondue par le manque de linéarité de la tendance au réchauffement climatique, et par conséquent, la dissuasion des alias de l’indice AMO. La non-linéarité est particulièrement prononcée au cours de la période 1945-1975, lorsque les SST globales ont montré une légère tendance au refroidissement.
Pour lever les ambiguïtés associées à la dépréciation dans la formulation de l'indice AMO, Johnstone (2017) a formulé un indice `` Arc '' de l'Atlantique, basé sur la principale composante principale de la variabilité de la SST de l'Atlantique nord (60 ° N à 0 °, 70 ° W-0 ° W). L'indice SST de l'Atlantique `` Arc '' reflète une variabilité cohérente au sein d'un motif en forme d'arc à l'échelle du bassin (parfois appelé `` fer à cheval ''), une signature de l'AMO qui englobe l'Atlantique Nord tropical, la limite est de la latitude moyenne et une grande partie de la nord subpolaire (Fig. 9.2).
- voir graphique sur site -
Graphique 9.2. Le motif de l'arc est délimité par la ligne noire en gras, qui englobe l'Atlantique Nord tropical, la limite est de la latitude moyenne et une grande partie de l'Atlantique nord subpolaire. De Johnstone.
Le motif de l'arc est reconnu comme une signature spatiale de l'AMO, identifié à la variabilité couplée océan-atmosphère, et est étroitement lié à un motif «tripolaire» de réponse SST au NAO. L'indice Arc affiche un réchauffement net en plus de la période multidécennale reconnue comme une phase froide de l'AMO (Figure 9.3). Étant donné que l'indice Arc combine à la fois la variabilité de l'AMO et la tendance générale au réchauffement, il est plus utilement interprété comme définissant des régimes et des changements multidécennaux (voir la section 9.4).
L'indice d'arc (figure 9.3) montre des changements brusques vers la phase chaude en 1926 et 1995, conformément à l'analyse AMO conventionnelle de la figure 9.1. L'analyse de Johnstone indique un passage à la phase froide en 1971, qui diffère de l'analyse présentée à la figure 9.1 qui indique le passage à la phase froide en 1964. L'indice AMO de Klotzbach et Gray (2008) indique également un passage à la phase froide en 1970.
- voir graphique sur site -
Graphique 9.3. Série chronologique de l'indice de l'Arc Atlantique de 1880 au début de 2018. D'après Johnstone.
9.2 Reconstructions paléoclimatiques
La brièveté des données instrumentales disponibles limite notre compréhension de la variabilité multidécennale de l'Atlantique (VMA). Les reconstructions dérivées du paléoclimat des signaux liés à l'AMV qui s'étendent au-delà de l'ère instrumentale fournissent une base importante pour comprendre la nature et la stationnarité dans le temps de l'AMV.
Le récent Wang et al. (2017) La reconstruction de l'AMV à l'aide d'enregistrements proxy terrestres (anneaux d'arbres, carottes de glace, etc.) au cours des 1200 dernières années a à la fois une large couverture spatiale et une résolution temporelle (annuelle) élevée. Wang et coll. (2017) ont constaté que les grandes éruptions volcaniques et les minimums d'irradiance solaire induisent des phases froides de la variabilité multidécennale de l'Atlantique et expliquent collectivement environ 30% de la variance de la reconstruction sur des échelles de temps supérieures à 30 ans. Ils ont isolé la composante générée en interne de la variabilité multidécennale de l'Atlantique, qu'ils définissent comme l'AMO. Ils ont constaté que l'AMO est le plus grand contributeur à la variabilité multidécennale de l'Atlantique au cours des 1 200 dernières années.
RépondreSupprimerZhang et coll. (2019) fournit un résumé des études qui ont analysé les données paléoclimatiques pour déterminer si l'AMV est dirigée de manière interne ou externe. Au cours des 12 derniers siècles, le forçage solaire et volcanique reconstruit est en corrélation avec Wang et al. (2017) Reconstruction de l'AMV, mais leur contribution combinée explique moins d'un tiers (28%) de la variance totale de l'AMV; l'AMV reconstruite est dominée par la variabilité interne. La composante de variabilité interne de Wang et al. (2017) La reconstruction AMV révèle également des signaux significatifs à des échelles de temps multidécennales au-dessus d'un fond de bruit rouge et son amplitude pendant la période préindustrielle, en particulier avant le petit âge glaciaire, est du même ordre que celui trouvé dans l'indice AMV instrumental. Les proxys Paleo soutiennent également l'existence d'un lien AMOC-AMV au cours des derniers siècles.
Knudsen et al (2010) ont utilisé des données paléoclimatiques pour montrer que des oscillations distinctes d'environ 55 à 70 ans caractérisaient la variabilité océan-atmosphère de l'Atlantique Nord au cours des 8 000 dernières années (Holocène). Le signal AMO de l'Holocène semble avoir été quasi-périodique et la réponse climatique associée a été d'intensité très variable, à la fois dans le temps et dans l'espace. Dans l'Atlantique tropical, le signal de réponse AMO était généralement relativement faible pendant le réchauffement de l'hémisphère nord du maximum thermique de l'Holocène (HTM) entre 5 500 et 9 000 BP, après quoi il a repris en intensité. Au cours des 8 000 dernières années, des changements mineurs semblent s'être produits au cours de la période dominante dans la fourchette des 55 à 70 ans. La période d'oscillation dominante dans l'intervalle de 5 500 à 8 000 BP était d'environ 65 ans, alors qu'elle s'est quelque peu raccourcie entre 5 500 BP (avant le présent) et ~ 2 700 BP (55–60 ans). La période des oscillations dominantes a encore augmenté légèrement après ~ 2 700 BP (65–70 ans), mais les oscillations n'étaient généralement pas aussi bien définies qu'au début de l'Holocène, lorsque la bande passante de la période AMO semble avoir été plus étroite.
Knudsen et al (2010) fournissent les informations supplémentaires suivantes. Le signal de réponse AMO présente un changement général de son schéma au cours des 8 000 dernières années, car le signal était le plus prononcé dans l'Arctique pendant le HTM, alors que sous les tropiques, son maximum était généralement atteint après le HTM. Entre 2 000 et 3 500 BP, il y a eu une récidive statistiquement significative des oscillations multidécennales dans l'Arctique. Cet intervalle chevauche une partie de la néo-glaciation entre 2000 et 3000 BP, qui était caractérisée par une SST relativement élevée et des conditions climatiques généralement plus chaudes et particulièrement instables dans certaines parties de la région nord de l'Atlantique Nord. Ces conditions signifiaient que les sites arctiques devenaient temporairement plus sensibles aux oscillations multidécennales de la SST, probablement en raison d'une réduction associée de la couverture de glace de mer arctique. Cependant, les changements majeurs dans les schémas de circulation de l'Atlantique Nord qui ont suivi la néo-glaciation dans les deux hémisphères ont conduit à un signal de réponse AMO généralement affaibli après ~ 2000 BP. Ce changement s'est accompagné d'un déclin distinct de la SST entre 2 000 et 500 BP dans certaines parties du nord de l'Atlantique Nord.
RépondreSupprimer9.3 Dynamique climatique
Malgré les débats en cours sur la dynamique climatique de l'AMV, il est généralement admis que l'AMV représente un amalgame complexe de la variabilité interne naturelle de la circulation méridienne de renversement de l'Atlantique (AMOC), forçage stochastique naturel à bruit rouge de l'océan par l'atmosphère (principalement le NAO) et le forçage externe des événements volcaniques, des particules d'aérosol et des gaz à effet de serre.
9.3.1 AMO
L'oscillation multidécennale atlantique (AMO) est le mode le plus important de variabilité multi-décennale de l'Atlantique; cependant, les origines physiques de l’AMO restent un sujet de débats permanents. Les changements observés de l'AMO SST ont longtemps été attribués à des variations lentes du transport de chaleur vers le nord de la haute mer par l'AMOC. Les processus océaniques offrent un mécanisme plausible pour de grandes variations climatiques multidécennales; ces inférences reposent en grande partie sur des simulations de modèles climatiques en raison du bref historique de circulation de l'AMOC qui n'a commencé que récemment en 2004.
Plusieurs hypothèses supplémentaires pour les mécanismes AMV ont été proposées. On a émis l'hypothèse que les aérosols anthropiques sont l'un des principaux moteurs de l'AMV observée. L'argument est qu'une augmentation de l'indice AMV SST linéairement détendu est forcée par l'augmentation du flux de chaleur radiatif à ondes courtes vers le bas induit par la diminution des aérosols anthropiques par leur interaction avec les nuages. Cependant, le déclin observé du signal AMV SST subpolaire au cours de la dernière décennie est incompatible avec le changement récemment observé (une légère diminution) des aérosols anthropiques dans la région de l'Atlantique Nord. Comme le résument Zhang et al. (2019), l'hypothèse selon laquelle les changements dans le forçage radiatif externe est l'un des principaux moteurs de l'AMV est en désaccord avec de nombreux éléments clés observés de l'AMV.
RépondreSupprimerÀ l'aide d'observations et de modèles, Delworth et al. (2017) ont examiné la relation entre l'oscillation nord-atlantique (NAO) et les variations décennales de la SST atlantique. Conformément à de nombreuses études antérieures, sur de courtes échelles de temps, les anomalies de flux de chaleur de surface liées à la NAO entraînent un modèle tripolaire d'anomalies SST dans l'Atlantique. Sur des échelles de temps décennales et plus longues, il y a une réponse décalée de l'océan aux flux NAO, l'AMOC jouant un rôle de premier plan dans la modulation du transport de chaleur océanique méridional et générant une réponse SST de type AMO. Une phase positive prolongée de la NAO améliore l'AMOC après un délai à l'échelle décennale. Delworth et coll. (2017) ont constaté que la variabilité de la SST à l'échelle décennale dans l'Atlantique Nord subpolaire et tropical est bien corrélée. Alors que la dynamique des océans joue un rôle crucial pour la variabilité de la SST à l'échelle décennale dans l'Atlantique Nord extratropical, les résultats de cette étude suggèrent que son influence directe dans l'Atlantique Nord tropical semble être plus faible, les flux air-mer locaux jouant un rôle plus important.
Lin et coll. (2019) plaident en faveur de deux sources différentes pour la variabilité des AMO, identifiant les OMA de 50 à 80 ans et de 10 à 30 ans qui sont associées à des dynamiques sous-jacentes différentes. Associé à un AMO positif à une période de 50 à 80 ans, il y a des vents d'ouest renforcés au nord de 60 N mais affaiblis entre 40 et 60 N, ce qui est dynamiquement cohérent avec un vortex polaire accru et lié à la variabilité dans le Pacifique. La variabilité atmosphérique associée à l'AMO de 10 à 30 ans est un modèle zonal asymétrique avec des blocages prévalant sur l'Atlantique Nord de haute latitude et une anomalie cyclonique sur l'Atlantique Nord subtropical, qui est indépendante de la variabilité sur le secteur Pacifique. Alors que l'AMO de 10 à 30 ans peut être directement liée à la dynamique de l'Atlantique tropical, l'AMO de 50 à 80 ans est fortement liée à l'interaction entre les bassins de l'Atlantique Nord et les mers Groenland-Islande-Norvège. (Remarque: conforme à la vague du stade.)
Willis et coll. (2019) ont identifié une anomalie tripolaire SST entre le Gulf Stream, le gyre subpolaire et les mers norvégiennes qui varie sur des échelles de temps de 8 à 20 ans. Leurs résultats suggèrent que l'AMO est confinée à l'Atlantique nord subpolaire, tandis que l'Atlantique tropical varie principalement sur des échelles de temps plus courtes (intradécennales). Dans une autre étude, Muller, Curry et al. (2013) ont identifié un pic étroit et fort dans l'AMO avec une période d'environ 9 ans.
RépondreSupprimerNigam et coll. (2018) ont montré que la composante décennale de l'AMO est étroitement liée à la variabilité du Gulf Stream: le déplacement vers le nord de la trajectoire du Gulf Stream (GS) coïncide avec la phase AMO froide avec des anomalies SST froides dans le gyre subpolaire. Le déplacement du GS vers le nord est précédé par la phase positive du NAO basse fréquence et suivi par une tendance AMO positive de 1,25 et 2,5 ans, respectivement. Le phasage temporel est tel que le déplacement du GS vers le nord est presque simultané avec la phase décennale froide de l’AMO (tourbillon subpolaire froid et frais).
Kwon et coll. (2019) ont constaté que l'évolution des anomalies SST est très différente dans la phase chaude par rapport à la phase froide de l'AMV. Pour la phase chaude AMV, les anomalies chaudes SST dans le gyre subpolaire ouest sont amorties par le flux de chaleur de surface, et posent ainsi un échauffement anormal dans la basse troposphère et réduisent le gradient méridien global de la température atmosphérique. Par conséquent, l'activité de trajectoire de tempête s'affaiblit. Comme le blocage influence considérablement la circulation atmosphérique moyenne saisonnière, la phase négative de NAO domine en même temps.
RuprichRobert et Cassou (2014) ont constaté que le cycle de vie complet des événements AMOC / AMV repose sur une relation complexe évolutive dans le temps avec à la fois l'oscillation nord-atlantique (NAO) et l'est de l'Atlantique (EAP) (figure 9.8). La hausse de l'AMOC conduisant à une phase chaude de l'AMV est statistiquement précédée par les NAO + et EAP + hivernaux à partir du décalage -40 / -20 ans. Les anomalies associées au stress du vent induisent une accélération du tourbillon subpolaire (SPG) et un transport accru vers le nord des eaux subtropicales chaudes et salines. Des anomalies concomitantes de salinité positive se produisent dans les mers Groenland – Islande – Norvège en lien avec le déclin local de la glace de mer; ceux-ci sont amenés par le courant oriental du Groenland à la mer du Labrador participant à la densification progressive du SPG et à l'intensification de la convection profonde océanique conduisant au renforcement de l'AMOC. À partir d'un décalage de -10 ans avant un maximum d'AMOC, la relation inverse est trouvée avec le NAO pour les saisons d'été et d'hiver. NAO- agit comme une rétroaction positive pour le développement complet de l'AMV à travers les flux de surface mais, en même temps, prépare sa terminaison par rétroaction négative sur AMOC. La relation entre l'EAP- et l'AMOC est également présente en été à partir des retards -30 / + 10 ans, tandis que l'EAP d'hiver- est favorisée autour du pic d'AMV.
Dans l'ensemble, les effets combinés de NAO et EAP sont responsables d'un mode de variabilité irrégulier et amorti de l'AMOC / AMV qui prend environ 35 à 40 ans pour se développer et environ 15 à 20 ans pour se dissiper. En plus de l'action directe NAO- / EAP-, la fin des événements AMOC / AMV est également induite par l'advection de l'eau douce anormale du bassin subtropical de l'Atlantique Nord le long de la circulation océanique moyenne à la frontière ouest, et aussi de l'Arctique en raison de perte considérable de volume de glace associée à des conditions atmosphériques globales plus chaudes lorsque l'AMOC est amélioré.
RépondreSupprimer- voir graphique sur site -
Figure 9.8 Diagramme schématique d'un événement positif AMOC / AMV. RuprichRobert et Cassou (2014)
Mise à jour: Une excellente nouvelle publication m'a été signalée sur Twitter qui soutient les conclusions générales de mon article https://journals.ametsoc.org/view/journals/clim/32/22/jcli-d-19-0177.1 .xml # .YEO-7oO1x98.twitter
9.4 Changements récents
Comme résumé par Robson et al. (2012), au milieu des années 1990, le tourbillon subpolaire de l'Atlantique Nord a subi un réchauffement rapide remarquable, les températures de surface de la mer augmentant d'environ 1,8 ° C en seulement 2 ans. Ce réchauffement rapide fait suite à une phase positive prolongée de l'oscillation nord-atlantique (NAO), mais a également coïncidé avec un indice NAO exceptionnellement négatif à l'hiver 1995/96. En comparant des analyses océaniques et des expériences modèles soigneusement conçues, ils ont montré que ce réchauffement rapide peut être compris comme une réponse retardée à la phase positive prolongée du NAO et pas simplement comme une réponse instantanée à l'indice NAO négatif de 1995/96. En outre, ils ont déduit que le réchauffement était en partie causé par une montée subite et un déclin subséquent de la circulation de renversement méridien et du transport de chaleur vers le nord de l'océan Atlantique.
Robson et coll. (2016) ont montré que depuis 2005, un grand volume de l'océan Atlantique Nord subpolaire s'est considérablement refroidi, inversant la tendance précédente au réchauffement. En analysant des observations et un modèle climatique à la fine pointe de la technologie, ils ont montré que ce refroidissement est cohérent avec une réduction de la force de la circulation océanique et du transport de chaleur, liée à de faibles densités record dans la mer profonde du Labrador. La faible densité dans la mer profonde du Labrador est principalement due au réchauffement profond des océans depuis 1995, mais un rafraîchissement à long terme a également joué un rôle. Ils ont déduit que le refroidissement observé dans une grande région de la partie supérieure de l'océan Atlantique Nord depuis 2005 ne peut pas être expliqué comme une réponse directe aux changements de la circulation atmosphérique au cours de la même période.
Johnstone (2017) décrit un «modèle de décalage couplé» du changement climatique à basse fréquence de l'Atlantique Nord, basé sur des transitions brusques entre des températures de surface de la mer quasi stables et des circulations atmosphériques couplées. Cette hypothèse décrit des changements récurrents en échelon dans la SST de l'Atlantique Nord, dans laquelle des perturbations SST de haute amplitude sont parfois maintenues comme des états climatiques multidécennaux anormaux par des rétroactions positives atmosphère-océan. Des preuves statistiques sont présentées que les changements de SST à basse fréquence n'étaient pas des processus graduels comme couramment décrits, mais à travers une série d'événements courts et discrets, caractérisés par des décalages brusques d'environ 1 an qui séparent des périodes multidécennales plus longues de relativement peu de changement.
RépondreSupprimerLe fort réchauffement atlantique du milieu des années 1990 (figure 9.1), qui est représenté par les indices AMO filtrés comme un processus graduel d'une décennie ou plus, peut être attribué à une augmentation brutale et remarquablement continue de la SST à l'échelle du bassin, à partir d'octobre. -Novembre 1994, et essentiellement accompli comme un changement de + 0,8 ° C SST dans la majeure partie de l'Atlantique Nord en juillet 1995 (Figure 9.3). Le réchauffement brutal de 1994-95 n'a pas été amorti au cours des mois successifs, au cours des quelques années suivantes, et pendant les deux décennies suivantes jusqu'à aujourd'hui, introduisant rapidement un nouvel état climatique plus chaud. L'étendue à l'échelle du bassin du changement de 1995 peut être vue dans le changement brusque des anomalies mensuelles de la SST sur l'Atlantique Nord subpolaire (50-60 ° N) et les marges subtropicales de l'Afrique du Nord-Ouest, qui se réchauffent presque simultanément (Indice Arc, Graphique 9.2).
Les changements apparaissent dans le record annuel Arc SST (Fig.9.3) comme des sauts prononcés d'une année à l'autre en 1925-26 (+ 0,5 ° C), 1970-71 (-0,3 °) et 1994-95 (+ 0,6 °) qui ont été suivies par la persistance multidécennale d'anomalies similaires par rapport aux années précédentes (1926-1970: + 0,5 ° C, 1971-1994: -0,2 ° C et 1995-2014: + 0,5 °). Chacun de ces intervalles n'a pas de tendance linéaire significative de l'arc SST, ce qui suggère que de grands changements climatiques transitoires ont été suivis d'une restabilisation du bilan thermique de la haute mer et de la persistance de nouvelles conditions anormales sur des années à plusieurs décennies. Les changements de l'Arc SST 1926, 1971 et 1995 se sont produits avec des anomalies modérées du même signe de l'hiver (octobre-mars) Niño 3.4 SST, suggérant un rôle systématique pour ENSO dans la génération de changements climatiques de basse fréquence dans l'Atlantique Nord.
Un indicateur régional plus spécifique apparaît dans la correspondance entre les décalages de l'Arc SST et les changements de SST de haute amplitude au large de l'Afrique du Nord-Ouest, qui ont culminé en septembre 1925, août 1970 et novembre 1994. Les SST ouest-africaines sont une composante importante du mode multidécennal atlantique (AMM), qui peut servir de pont à travers les échelles de temps, soutenant les perturbations de la SST comme des anomalies climatiques durables.
RépondreSupprimerUne implication physique du modèle de décalage est que les changements climatiques à basse fréquence se produisent par des impulsions occasionnelles d'absorption et de dégagement de chaleur dans la partie supérieure de l'océan, plutôt que par des processus graduels ou cumulatifs.
Les conditions atmosphère-océan menant au réchauffement de 1994-95 partagent des similitudes notables avec le réchauffement de 1925-26 et (à l'opposé) avec le refroidissement de 1970-1971, ce qui suggère la prévisibilité des changements climatiques majeurs de l'Atlantique Nord. Les trois événements ont été précédés au cours des 2-3 années précédentes par des anomalies de pression au niveau de la mer (SLP) exceptionnellement fortes de signe opposé autour de la mer de Norvège dans un modèle plus large de type NAO. Dans chaque cas, l'hiver de transition présentait des conditions ENSO modérées favorables au changement de température en développement, et chaque changement se distinguait par des changements locaux extrêmes de la SST au large de l'Afrique du Nord-Ouest.
Historiquement, les changements atlantiques ont été marqués par des changements extrêmes à court terme de la SST au large de l'Afrique du Nord-Ouest: un comportement qui n'est pas actuellement évident, car les zones subtropicales et tropicales de l'Arc restent dans un état chaud commencé en 1995. Cependant, il est à noter que les SST subpolaires de 50 à 60 N montrent des signes de refroidissement brutal depuis 2015 (Fig. 9.10), comportement suggérant un déplacement «partiel» qui pourrait bientôt impliquer l'ensemble de l'Atlantique Nord, y compris les tropiques. La divergence actuelle entre la SST subpolaire et tropicale de l'Atlantique Nord est potentiellement analogue au comportement observé à la fin des années 1960-début des années 1970, lorsque le refroidissement subpolaire rapide en 1969-70 a légèrement précédé la forte baisse de 1971 de la SST tropicale. Sur la base des tendances historiques, un passage brusque vers des conditions plus fraîches peut être imminent, bien que le régime anormalement long de 1926 à 1970 suggère qu'un retard substantiel allant jusqu'à 10-20 ans peut également être plausible.
- voir graphique sur site -
RépondreSupprimerGraphique 9.10. Anomalies annuelles de la SST pour l'Atlantique Nord subpolaire et tropical. Le SST subpolaire (bleu, 60 ° -50 ° N) affiche une forte baisse et des conditions de fraîcheur persistantes depuis 2015 (20 ° N- 0 °, rouge). Une divergence similaire vers 1970 pourrait fournir une première indication d'un refroidissement tropical et plus large de l'Atlantique Nord au cours des prochaines années.
Dans quelle mesure le changement de 1995 de l'OMA était-il prévisible par les modèles climatiques? Msadek et coll. (2014) résument les expériences de prédiction décennale menées à l'aide du modèle climatique GFDL. L'initialisation du modèle produit une grande habileté à prédire rétrospectivement le réchauffement du milieu des années 90, ce qui n'est pas pris en compte par les prévisions non initialisées. Toutes les rétrospectives initialisées au début des années 1990 montrent un réchauffement du SPG (gyre subpolaire); cependant, seuls les résultats rétrospectifs moyens d'ensemble initialisés en 1995 et 1996 sont capables de reproduire le réchauffement brusque observé et la diminution et la contraction associées du SPG. La compétence améliorée de prévision décennale de l'Atlantique est obtenue principalement en initialisant les anomalies AMOC, au lieu de prédire les anomalies AMOC aux hautes latitudes nordiques.
En envisageant un éventuel passage à la phase froide de l’AMO, il est instructif de considérer le passage antérieur à la phase froide qui s’est produit dans les années 1960 et au début des années 1970, lorsque les températures de surface de la mer dans l’océan Atlantique Nord se sont refroidies rapidement. Hodson et coll. (2014) ont démontré que le refroidissement se déroulait en plusieurs étapes distinctes:
1964–68: Le refroidissement initial est en grande partie confiné aux mers nordiques et à l'extension du Gulf Stream. Il n'y a pas d'anomalie notable de la circulation atmosphérique au cours de cette période, mis à part une petite anomalie basse du MSLP au-dessus de l'Arctique en octobre-juin.
1968–72: Au fur et à mesure que le refroidissement progresse, des anomalies froides s'étendent pour couvrir une grande partie du gyre subpolaire (SPG) et des latitudes moyennes nord. Il y a une allusion à de faibles anomalies SLP en Afrique du Nord, mais la preuve la plus évidente d'anomalies de circulation est une anomalie anticyclonique en juillet-septembre, qui s'étend sur le nord de l'Europe et jusqu'en Asie.
1972–76: Les anomalies froides atteignent leur ampleur et leur étendue spatiale maximales pendant cette période. La partie ouest de l'Atlantique Nord subtropical ne montre pas de refroidissement significatif, ce qui se traduit par un motif tripolaire (ou en fer à cheval). Le patron des anomalies SLP projette sur la phase positive du NAO.
9.5 Simulations de modèles climatiques
De nombreux modèles climatiques couplés simulent la variabilité décennale de l'Atlantique qui est cohérente à certains égards avec les observations disponibles. Cependant, les mécanismes diffèrent fortement d’un modèle à l’autre et l’insuffisance de la base de données d’observation ne permet pas de faire la distinction entre les simulations «réalistes» et «irréalistes» (Latif et Keenlyside, 2011). Ruiz-Barradas et coll. (2013) ont examiné des simulations historiques de l'AMO dans les modèles CMIP3 et CMIP5. La variabilité de l'AMO dans les gammes 10–20 / 70–80 ans est surestimée / sous-estimée dans les modèles.
RépondreSupprimerCheng et coll. (2013; 2015) ont examiné la circulation méridienne de renversement de l'Atlantique (AMOC) simulée par 10 modèles du CMIP5 pour le climat historique et futur. L'AMOC moyenne de l'ensemble multimodèle présente une variabilité multidécennale sur une période de 60 ans; tous les modèles individuels projettent de manière cohérente sur ce mode multidécennal.
Comme le résume le NCA (2017), le lien simulé AMOC-AMV varie considérablement entre les modèles climatiques mondiaux couplés, probablement en raison de la propagation des biais du modèle d'état moyen dans l'Atlantique Nord. La liaison AMOC-AMV dépend des amplitudes de la variabilité AMOC basse fréquence, qui est beaucoup plus faible dans les modèles climatiques que dans le monde réel en raison de la variabilité AMOC basse fréquence sous-estimée qui amplifie le rôle relatif du forçage radiatif externe ou du forçage atmosphérique stochastique dans AMV.
Le moment du passage à la phase froide AMO n'est pas prévisible; cela dépend dans une certaine mesure de la variabilité météorologique imprévisible. Cependant, l'analyse des enregistrements historiques et paléoclimatiques suggère qu'une transition vers la phase froide est attendue avant 2050. Enfield et Cid-Serrano (2006) ont utilisé des reconstructions paléoclimatiques de l'AMO pour développer une projection probabiliste du prochain changement d'AMO. L’analyse d’Enfield et Cid-Serrano indique qu’un passage à la phase froide devrait se produire au cours des 13 prochaines années, avec une probabilité de 50% qu’il se produise au cours des 6 prochaines années.
Évaluation de Mann et al. papier
Dans ce contexte, vous pouvez voir pourquoi je n'accepte pas l'explication des aérosols (pollution et / ou volcans) pour une explication de ce qui cause l'AMO. Il y a des discussions et des désaccords substantiels dans la communauté de la dynamique climatique sur ce sujet, ce qui n'est pas surprenant étant donné les interactions complexes apparentes entre les circulations océaniques et l'AMOC, la variabilité météorologique et climatique interannuelle, et le forçage externe du soleil et des volcans.
Alors, qu’est-ce qui ne va pas exactement avec l’analyse de Mann? Il s'appuie sur des modèles climatiques mondiaux, insuffisants pour simuler l'AMO. Cela a été souligné plus récemment par Kravtsov et al. (2018), qui a conclu que:
RépondreSupprimer«Alors que les modèles climatiques présentent divers niveaux de variabilité climatique décennale et certaines similitudes régionales avec les observations, aucune des simulations de modèle considérées ne correspond au signal observé en termes de magnitude, de modèles spatiaux et de leur évolution temporelle séquentielle. Ces résultats mettent en évidence un degré d'incertitude important dans notre interprétation du changement climatique observé à l'aide de la génération actuelle de modèles climatiques.
S'appuyer sur des modèles climatiques mondiaux, qui ne simulent pas adéquatement la variabilité interne pluriannuelle, pour «prouver» qu'une telle variabilité interne pluriannuelle n'existe pas, relève du raisonnement circulaire (au mieux). Comment ce truc est-il publié dans une revue comme Science? L'examen par les pairs est tellement cassé.
Ce que Mann voit dans les simulations du modèle climatique, c'est l'expression tropicale de période plus courte de l'AMO qui est limitée à l'Atlantique Nord - et non la variabilité pluriannuelle qui est liée à l'oscillation globale. Cette expression tropicale peut très bien être imposée dans une certaine mesure par des éruptions volcaniques tropicales, mais en dit peu sur la variabilité mondiale pluriannuelle qui est du plus grand intérêt.
La véritable variabilité climatique pluriannuelle est principalement générée en interne, bien que les variations solaires puissent aider à définir le tempo et que les éruptions volcaniques majeures peuvent masquer les variations ou aider à déclencher un changement.
Pourquoi est-ce important ? Les différentes phases de l'AMO sont liées à: l'activité des ouragans dans l'Atlantique, le bilan de masse du Groenland et les conditions météorologiques influençant l'Amérique du Nord et l'Europe (notamment les sécheresses); ceci sans parler du changement de température globale.
D'après le communiqué de presse de Penn State, un motif principal pour l'annulation de l'AMO apparaît afin que Mann puisse attribuer l'augmentation de l'activité des ouragans dans l'Atlantique depuis 1995 à AGW. L’annulation de l’AMO n’aidera pas beaucoup ici. Comme indiqué dans mon article récent sur le rapport du secteur de l'assurance AIR, le nombre d'ouragans majeurs (Cat 3+) dans l'Atlantique au cours des années 1950 et 1960 (phase chaude précédente de l'AMO) était au moins aussi important que pendant les deux dernières décennies. , lorsque les SST étaient nettement plus froids.
Un autre problème clé avec l'AMO est que toute l'accélération de l'élévation du niveau de la mer au cours des dernières décennies provient de la fonte du Groenland, qui est fortement influencée par l'AMO.
RépondreSupprimerEn supposant que la nature continue à se comporter comme elle l'a fait au cours des 8 derniers millénaires, à un moment donné (peut-être au cours de la prochaine décennie), nous verrons un passage à la phase froide de l'AMO, avec un ralentissement de l'activité des ouragans de l'Atlantique et de la masse du Groenland. perte.
En conclusion, la quête de Mann pour annuler la période chaude médiévale et maintenant l'AMO, dans le but de montrer que le réchauffement récent est 100% anthropique, n'est pas du tout convaincante pour les scientifiques qui comprennent quoi que ce soit sur la dynamique climatique et les modèles climatiques mondiaux.
https://wattsupwiththat.com/2021/03/07/canceling-the-amo/