Les craintes suscitées par les déchets nucléaires reposent principalement sur de fausses croyances répandues par une propagande anti-nucléaire malveillante.
Par Michel Gay
6 AVRIL 2018.
Les déchets nucléaires cristallisent les passions alors qu’ils n’ont jamais provoqué d’accident de transport ni de stockage, ni d’aucune sorte. Et ils n’en provoqueront jamais selon toute probabilité.
Les craintes suscitées par les déchets nucléaires reposent principalement sur de fausses croyances répandues par une propagande anti-nucléaire malveillante.
Toutes les catégories de déchets nucléaires disposent, ou sont en voie de disposer, de solutions de traitement adaptées. Le futur centre industriel de stockage géologique CIGEO complétera notre dispositif national au-delà de 2030.
JUSQU’OÙ FAUT-IL ALLER DANS LES DÉPENSES DE SÛRETÉ NUCLÉAIRE ?
L’Autorité de sûreté nucléaire française (ASN) exige de traiter les déchets de très faible activité (TFA) comme s’ils présentaient un risque Or, les autres pays européens appliquent un seuil d’exemption qui permet de les recycler. Cette position « politique » entraîne des coûts inutiles pour le consommateur et le contribuable français.
Une des stratégies des anti-nucléaires est d’appeler à dépenser toujours plus d’argent pour étouffer la technologie nucléaire sous les coûts (coups ?).
Or, les 40 ans d’existence de notre programme électronucléaire ont apporté la preuve de sa sûreté. Pourquoi continuer à durcir la réglementation, à abaisser des normes de rejets inférieures à la radioactivité naturelle inoffensive et à refuser un seuil d’exemption ? La radioactivité est même parfois bénéfique, y compris dans les stations thermales, même si elles sont rares à le souligner.
En juillet 2003, l’Académie de médecine considère que l’électricité nucléaire « s’avère avoir le plus faible impact sur la santé par kilowattheure produit par rapport aux filières utilisant des combustibles fossiles, les biomasses ou l’incinération des déchets, ou même les énergies éolienne et photovoltaïque ».
En janvier 2012, l’Académie des sciences confirme que « les centrales nucléaires sont aujourd’hui le seul moyen de produire massivement de l’électricité concentrée, permanente et sans émission de gaz à effet de serre ».
Elle souligne aussi que « quatre décennies d’expérience ont montré que l’impact sanitaire du nucléaire est bien moindre que celui d’autres sources principales d’énergie, le charbon en particulier ».
L’exposition moyenne des Français aux radiations est de 4,5 millisievert par an (mSv/an), dont 2,9 mSv/an d’exposition naturelle et 1,6 mSv/an d’exposition médicale. Les activités industrielles et militaires représentent moins de 1% de ce total.
UNE ÉNERGIE DURABLE ET PROPRE
Environ 55 réacteurs nucléaires sont en construction dans le monde et 450 en fonctionnement parce que le nucléaire est une énergie propre, sûre et bon marché.
Le nucléaire a aussi l’avantage d’utiliser un combustible abondant et bien réparti sur toute la planète (l’uranium) et de produire des quantités de déchets beaucoup plus faibles que toutes les autres technologies. Certes, ils sont radioactifs mais les filières de traitement et de stockage ultime sont maîtrisées, et leur radioactivité décroit avec le temps contrairement aux produits chimiques qui restent éternellement toxiques.
Enfin, le nucléaire est une énergie durable grâce aux réacteurs surgénérateurs déjà en fonctionnement en Russie et en Inde. Ce fut aussi le cas pour les surgénérateurs français Phénix et Superphénix qui ont fonctionné pendant plusieurs années avant d’être démantelés pour des raisons politiques. Ils sont capables d’utiliser cent fois plus efficacement qu’actuellement l’uranium naturel pendant… plusieurs milliers d’années.
La quatrième génération des réacteurs nucléaires (surgénérateurs) est en préparation en France, en Russie, en Inde, en Chine et aux États-Unis, et elle produira encore moins de déchets pour produire la même quantité d’électricité.
Même si des idéologues antinucléaires veulent « asphyxier » le nucléaire par des exigences de sûreté contreproductives et démesurées, notamment sur ses déchets, ne pas donner toute sa place à cette source d’énergie exceptionnelle serait une erreur stratégique.
Au-delà des manœuvres politiciennes et des lobbies divers, il serait dramatique de ne pas offrir à nos enfants un avenir énergétique respectueux de l’environnement et durable grâce à l’énergie nucléaire (pour la production d’électricité et de chaleur) puisque ses déchets, bien gérés comme ils le sont en France, ne représentent, et ne représenteront jamais, aucun danger pour les populations selon les (vrais) spécialistes.
Alors, où est le problème ?
La propagande est née du tremblement de terre (mag.9) au large de Fukushima le 11 Mars 2011. Ce mouvement de sol dans le Pacifique à provoquer un raz-de-marée sur la côte Est du Japon. Les maisons ont été emportées sauf... la centrale nucléaire.
RépondreSupprimerUne centrale électrique (gaz, pétrole, charbon, etc) est une marmite posée sur le feu. Une centrale électrique nucléaire est une cocotte-minute dans laquelle sont plongés des résistances pour chauffer l'eau. Ce sont des tubes (d'1 cm de diamètre) longs de 4 m env. qui renferment des pastilles cylindriques d'Uranium de 7 gr (1cm x 1 cm. 1 t équiv. pétrole). Ces crayons sont disposés en paniers sortis ou entrés dans l'eau des réacteur par des grues ponts-roulants.
La chaleur dégagée sert à faire tourner un rotor horizontal au dessus qui créé de l'électricité.
Le seul responsable lors de l'accident à Fukushima, a été l'alimentation en eau (océan/réacteur) qui a été coupée. Tuyaux posés à-même le sol ! sans avoir été préalablement montés sur vérins anti-sismique !!!
Le manque d'eau a occasionné la surchauffe intérieure passant de 300°C à 3000°C en quelques heures. Corium: Fontes des tubes en zirconium et des pastilles sur le cuvier. Fond de réacteur porté à des températures dépassant son usinage en fonderie. Traversé du corium vers le sol et pénétration dans la terre.
Lors de la fonte des crayons, de l'hydrogène a été libéré d'où l'explosion par déchapeautage de 3 réacteurs sur 4.
L'apaisement dans le monde bizarre du climat, de la politique et du pétrole
RépondreSupprimer5 avril 2018
Opinion des clients: Dr. Tim Ball
Je connais beaucoup de choses sur ce monde bizarre parce que j'ai été accusé à tort d'être à la solde de Big Oil. Dans les premiers temps, j'ai essayé d'obtenir leur argent afin de leur montrer pourquoi ils pouvaient ignorer la grande déception du réchauffement climatique. Je voulais leur montrer comment les idéologues utilisaient la pseudoscience pour faire avancer un agenda politique.
L'accusation des écologistes qu'Exxon connaissait le problème du gaz carbonique et du réchauffement climatique est correcte parce que, entre autres, je leur ai dit directement. L'accusation selon laquelle ils n'ont rien fait est incorrecte. Ils ont choisi d'ignorer les preuves scientifiques et de suivre une politique d'apaisement, apparemment, dans la croyance naïve, ils pourraient apaiser les idéologues et gagner une bataille de relations publiques. En ce moment, j'apprécie de les voir se tortiller et se tortiller alors qu'ils se battent en justice contre ceux qu'ils pensaient avoir apaisés. Ils savent maintenant que la définition de Churchill est correcte.
"Un apaisant est quelqu'un qui nourrit un crocodile - en espérant qu'il le mangera en dernier."
Ils ont également appris la différence entre ce qu'ils font et ce que font les écologistes. Mason Cooley l'a expliqué avec brio.
"Le commerce est gourmand. L'idéologie a soif de sang. "
Tandis que la bataille juridique bizarre se déroule dans les tribunaux américains, j'ai appris des récentes ouvertures des principaux acteurs du secteur énergétique canadien qu'ils réalisent maintenant que leur politique d'apaisement avec les environnementalistes de gauche n'a pas fonctionné.
J'ai essayé d'avertir la grande énergie il y a des années pour éviter le conflit de traiter avec la nouvelle idéologie de l'environnementalisme. Lors de fréquentes visites dans les bureaux d'entreprise, mon conseil était qu'ils avaient l'expertise du personnel pour montrer comment le gaz carbonique ne causait pas de réchauffement. Je le savais car j'ai été contacté par un groupe de scientifiques retraités du secteur de l'énergie pour aider à mettre en place une organisation pour lutter contre le Protocole de Kyoto. Le groupe existe aujourd'hui sous le nom de Friends of Science (FOS). C'est pourquoi ils jouent toujours ma citation dans leur entête
"Le protocole de Kyoto est une solution politique à un problème inexistant sans justification scientifique."
FOS a choisi de s'en tenir à la science mais a été ensanglanté tôt par la politique. Ils ont fait un travail louable sur la science. Bien que leur position de «science seulement» soit louable parce qu'idéalement, toute la science devrait être apolitique, elle garantissait peu ou pas de financement, surtout de la part des organismes qui pourraient bénéficier d'une exposition claire et simple de la science.
La question est de savoir pourquoi les sociétés d'énergie ne feraient-elles pas de recherche climatique ? Il y a peu d'industries dont les cycles de gestion, de demande et de production sont davantage influencés par le climat. Par exemple, le fait qu'ils varient considérablement les pourcentages d'essence et de mazout domestique d'été en hiver. Franchement, je n'investirais pas dans une entreprise qui a fait si peu de recherche pour comprendre un moteur majeur de sa demande sur le marché.
RépondreSupprimerHistoriquement, le capitalisme était simple et prévisible. Il s'agissait de profits, et le seul débat portait sur ce qui était un bénéfice raisonnable. Au Moyen Age, les gouvernements fixent des limites sur les bénéfices, généralement jusqu'à 9%, sur la base de valeurs pseudo-religieuses avec une usure jugée plus élevée et donc immorale. Il n'y a pas de temps ni de besoin d'entrer dans toutes les ramifications sociales et religieuses de ces croyances et actions. Il suffit de dire que toutes ces questions et ces débats se poursuivent aujourd'hui, bien que dans un ensemble différent de valeurs et de concepts. Une partie de ceci est liée à la fondation de l'Amérique avec l'évasion de la persécution religieuse des Frères de Plymouth sur le Mayflower. Ils ont considéré le profit bien aussi longtemps qu'il a été équilibré par une dîme stricte à l'église.
Karl Marx dans sa publication la plus influente, Das Kapital, en 1867, remet en question les conceptions religieuses qui ont servi de base à l'histoire et à l'économie du monde occidental jusqu'au milieu du XIXe siècle. Espèce. Il est raisonnable d'assimiler Darwin au concept de base du capitalisme, à la survie du plus apte. Après avoir lu l'excellent travail de Darwin, Herbert Spencer a inventé la phrase. Darwin l'aimait tellement qu'il l'a incorporé dans la sixième édition.
Tout cela a changé au 20ème siècle parce que le travail de Darwin a été utilisé pour défier l'existence de Dieu et cette religion formelle juxtaposée contre la science. Parce que Dieu n'était plus la raison pour laquelle les humains étaient différents dans le monde académique, cela a abouti à l'ajout d'une toute nouvelle faculté, les sciences sociales, aux facultés historiques des Arts et des Sciences Humaines, et aux Sciences Naturelles. Rappelez-vous, Darwin, a été identifié comme un naturaliste, pas un scientifique. Ce changement et l'impact sur la société continuent d'être au centre du débat d'aujourd'hui à travers les écrits de Richard Dawkins et d'autres. Tout a abouti à la disparition de l'influence de la religion formelle et créé un vide moral et éthique chez les jeunes.
La bataille a été sévèrement commandée aussi récemment que 1925 avec le tristement célèbre Scopes Monkey Trial. John Scopes a été poursuivi au Tennessee pour avoir enfreint la loi sur le Butler du Tennessee, qui interdisait l'enseignement de la théorie de l'évolution. Le vrai problème était le besoin d'équilibre dans l'éducation, pas d'endoctrinement. Ce qui devrait arriver, c'est qu'au moins le créationnisme et la théorie évolutionniste soient enseignés, et que les étudiants établissent leurs opinions.
Tout cela a créé un vide qui a permis au paradigme nouveau et nécessaire de l'environnementalisme de devenir une religion parmi beaucoup, mais surtout les jeunes. Malgré les avertissements de personnes comme le Dr Michael Crichton, l'environnementalisme est devenu une religion. Comme Andy May a résumé en reflétant les vues de Crichton
Nous devons sortir la religion de l'environnementalisme. Nous devons le récupérer sur une base scientifique. Trop d'organisations mentent simplement, pures et simples.
RépondreSupprimerCela n'arrivera pas avant un certain temps car, comme la plupart des grandes religions ou des organisations fascistes, il s'est rendu compte qu'il était nécessaire de contrôler le système éducatif. Les enfants obtiennent leur diplôme d'un système scolaire qui les baptise dans la religion environnementale. L'impact et l'ampleur des changements sont visibles dans le renversement complet de l'ordre d'apprentissage. Il y a quelques années à peine, la faculté la plus âgée conservait la sagesse dominante et était défiée par la nouvelle jeune faculté. Maintenant, la jeune faculté entre dans le système complètement endoctrinée et inconditionnelle tandis que la faculté la plus âgée garde le scepticisme nécessaire d'un scientifique.
Le pouvoir de la haute morale a été rapidement contrôlé par ceux qui ont vu le potentiel politique de l'environnementalisme. Ainsi, l'éco-intimidation a commencé et a balayé la logique et la logique de la science. Les compagnies d'énergie ont choisi d'apaiser, mais c'était un choix facile parce qu'il n'y avait pas de coût financier. Ils pourraient répercuter leurs coûts d'apaisement, y compris les taxes sur le carbone, au consommateur. Cela signifie qu'ils ont pu agir avec immunité, impunité et sans responsabilité.
Maintenant, j'aime regarder la situation bizarre de la responsabilité mal placée; ils sont poursuivis pour avoir délibérément échoué à faire la bonne chose. Tout est en train d'être jugé dans un système juridique qui évite traditionnellement les différends scientifiques parce qu'il admet qu'il ne sait rien. Mes sympathies vont aux compagnies d'énergie, car ce sont les combustibles fossiles qui ont élevé l'humanité de la famine marginale et de la courte durée de vie. Les écologistes sont des parasites qui ne produisent rien en attaquant ceux qui le font. Ils ont également, hypocritement, les avantages de ce que les combustibles fossiles fournissent. En attendant, j'apprécie la danse bizarre qu'ils exécutent tous les deux sans raison ni justification. Un fléau sur toutes leurs maisons, mais plus mortel, car la survie du plus apte permettrait au non-productif.
«Il n'y a pas d'erreur plus commune que de supposer que, parce que des calculs mathématiques longs et précis ont été faits, l'application du résultat à quelque fait de la nature est absolument certaine.
- UN. Whitehead
https://wattsupwiththat.com/2018/04/05/appeasement-in-the-bizarre-world-of-climate-politics-and-big-oil/
Whitestown Revisited - un emplacement de référence météorologique pour la ceinture de maïs
RépondreSupprimerAnthony Watts
5 avril 2018
Essai invité par David Archibald
Les lecteurs peuvent se souvenir d'un article précédent de WUWT où j'ai examiné les conditions de croissance expérimentées dans la Corn Belt au cours des 30 dernières années avec les «Degress Days» (GDD), en utilisant Whitestown, Indiana comme point de données. Cet article revisite et met à jour ces calculs.
C'est le moment de l'année où les agriculteurs de la Corn Belt commencent à penser à faire pousser leurs cultures. Les conditions de plantation sont loin d'être idéales pour le moment, bien que beaucoup de sols soient gelés ou saturés d'eau:
- voir graphique sur site -
Figure 1: 3 avril dans le nord de l'Iowa
- voir graphique sur site -
Figure 2: Champs imbibés de pluie après les tempêtes de l'après-midi dans le centre-est de l'Illinois
Et les modèles prédisent une nouvelle tempête de neige à venir:
- voir graphique sur site -
Figure 3: Modèle ECMWF d'une vitesse du vent de 850 millibars, montrant un fort courant d'air froid du centre de basse pression du Canada vers le centre des États-Unis.
La figure 3 est de Ryan Maue qui note sur Twitter:
"Alors, l'hiver se termine-t-il bientôt? ECMWF 12z a une tempête de neige massive qui rendrait janvier jaloux dans le haut Midwest en 9 jours. Bien sûr, c'est trop loin pour une prédiction précise, mais il vaut la peine de souligner que l'hiver n'est pas du tout terminé. "
Maintenant que la période chaude moderne est terminée et que nous revenons aux niveaux d'activité solaire typiques du 19ème siècle, il est pertinent de regarder à quoi ressemblait le climat à l'époque et comment un retour au climat du 19ème siècle aura un impact sur l'agriculture .
- voir graphique sur site -
Schéma 4: Minimums quotidiens moyens de Whitestown, Indiana pour les décennies 1900 - 1910 et 2000 à 2010
Ce que montre la figure 4, c'est qu'il y a un siècle, les minima journaliers de température pendant la saison de plantation étaient de trois semaines inférieurs à ce que les agriculteurs ont connu la dernière décennie. Ce qui est également intéressant est que dans la décennie de 1900 à 1910, il y a eu une baisse prononcée des températures en février. La dernière décennie, la baisse a été réduite et s'est avancée d'une quinzaine de jours.
- voir graphique sur site -
Figure 5: GDD cumulé de Whitestown, Indiana, du 27 avril au 1er gel
La croissance du maïs réagit à la chaleur. Le concept des degrés-jours de croissance (GDD) saisit cela en prenant 50 ° F de la température quotidienne moyenne. Par exemple, un maximum journalier de 76 ° F avec un minimum de 54 ° F produit une moyenne de 65 ° F. Prendre 50 ° F à partir de 65 ° F donne un résultat de 15 GDD pour ce jour. Des variétés de maïs ont été sélectionnées pour maximiser la productivité des conditions climatiques récentes et nécessitent 2 500 DJC pour atteindre leur maturité.
La figure 5 montre que les cultures de maïs de la dernière décennie pourraient atteindre 2 500 DJD d'ici la fin du mois d'août. Il y a un siècle, la maturité pourrait ne pas être atteinte avant la fin du mois de septembre. La première date de gel normale pour Whitestown est le 10 octobre, mais il y a 110 ans le premier gel était le 3 septembre, mettant fin à la croissance pour la saison. La dernière décennie a été en moyenne de 177 jours entre le dernier gel de printemps et le premier gel d'automne. Dans la première décennie du 20ème siècle, le nombre moyen de jours entre ces événements de gel était 147.
RépondreSupprimer- voir graphique sur site -
Figure 6: Progrès des cultures et état du maïs en Indiana
L'USDA fournit un service merveilleux suite à l'état des cultures dans la Corn Belt, par état. Si la plantation est retardée par des champs gorgés d'eau, les agriculteurs peuvent choisir de planter une culture à plus faible rendement qui nécessite moins de DSG pour atteindre la maturité. Si le semis est si retardé que le maïs n'est pas pris en considération, les champs peuvent être laissés en jachère ou une culture à croissance courte comme le seigle peut être substituée.
Cette année, un autre facteur est intervenu dans la prise de décision des agriculteurs, la Chine annonçant un droit de douane de 25% sur le soja américain.
- voir graphique sur site -
Schéma 7: Exportations américaines et brésiliennes de soja et importations chinoises 1964 - 2017
Traitées par les 400 millions de porcs de la Chine, les importations de soja de ce pays fournissent 20% de leurs besoins en protéines. Comme le montre la figure 7, les importations chinoises de soja absorbent la plupart des exportations combinées des États-Unis et du Brésil. Pour les producteurs américains, il existe un compromis entre les prix et les engrais entre la culture du maïs et la culture du soja. Le tarif chinois encouragerait le passage du soja au maïs, s'il est possible de semer dans le sol.
https://wattsupwiththat.com/2018/04/05/whitestown-revisited-a-weather-benchmark-location-for-the-corn-belt/
« Réchauffement climatique » oblige : l’hémisphère nord sous une vague de froid sans précédent
RépondreSupprimerCommentaire :
De l’Europe au Mexique, la transition de 2017 à 2018 se fait sous le signe des bouleversements climatiques. Non dans le sens du GIEC qui, au nom des carbo-dollars, prônent que la Terre se réchauffe, mais bien rapidement en vue d’une ère glaciaire. « On nous dit que la Terre se réchauffe, mais il neige et on a froid. On nous dit même que c’est de notre faute et on y croit…« .
le 4 Jan, 2018 dans Météo
Mexique: chutes de neige les plus abondantes en un demi-siècle
Le nord-ouest du Mexique enregistre cet hiver ses plus importantes chutes de neige depuis plus d’un demi-siècle, entraînant la fermeture temporaire d’un aéroport et de plusieurs autoroutes dans l’État de Chihuahua, ont indiqué lundi les autorités locales.
En fin de semaine dernière, jusqu’à 30 centimètres de neige sont tombés sur une trentaine de villes proches de la frontière américaine, le thermomètre dégringolant jusqu’à -18°C.
«Il s’agit du niveau de neige le plus important des 55 dernières années», a déclaré à l’AFP Efrén Matamoros, directeur de la Protection civile de Ciudad Juárez, ville située dans l’État de Chihuahua.
La police fédérale reste en «état d’alerte» dans les États septentrionaux de Chihuahua, Sonora, Durango et Coahuila, «pour enlever la neige et la glace» sur les autoroutes et aider les automobilistes, a-t-elle indiqué dans un communiqué.
L’aéroport international de Ciudad Juárez est resté fermé ce week-end en raison d’une couche de glace sur la piste. Son activité était revenue à la normale lundi.
.
Une forte chute de neige paralyse toute la Grèce
La première chute de neige en Grèce a recouvert plusieurs villes du pays et a par conséquent paralysé le trafic sur de nombreuses routes, ayant provoqué l’apparition d’immenses embouteillages, relatent des médias locaux.
La chute de neige commencée dans la soirée du 22 décembre coïncidait avec le jour où des milliers de Grecs prenaient la route pour les vacances de Noël et a immédiatement provoqué des ralentissements sur les routes aux quatre coins du pays, selon les informations communiquées par la chaîne de télévision publique grecque ERT.
L’autoroute reliant Athènes et Lamia a connu le plus grand embouteillage, de 15 kilomètres, les voitures y sont restées coincées pendant plus de huit heures.
Dans les régions montagneuses la circulation a été interrompue. La police a interdit la circulation des camions lourds sur certaines routes. Les navires sont interdits de quitter les ports de Rafina et Lavrio à cause de la tempête faisant rage en mer.
La chaîne de télévision conseille aux touristes, avant d’entamer leurs voyages prévus en Grèce, de se renseigner auprès des agences de tourisme et des autorités portuaires pour savoir si des changements dans les horaires sont prévus.
RépondreSupprimer.
Un froid extrême sans précédent touche l’Amérique du Nord
Des chutes de neige record et une vague de froid polaire prolongée glaçaient l’Amérique du Nord mercredi, où les habitants luttaient contre des températures pouvant atteindre jusqu’à -50°C.
Le nord des États-Unis et certaines régions du Canada situées autour des Grands Lacs sont frappés par une vague de froid et des tempêtes de neige sans précédent. À Minot, dans le Dakota du Nord, le thermomètre est descendu mercredi jusqu’à -21°C. «L’air fait mal. C’est difficile de respirer. Votre peau se met à fumer instantanément dès que vous allez dehors», a témoigné Morgan Alonia, une habitante de Minot, jointe par l’AFP. «Les gens restent chez eux. L’activité est très lente», a ajouté cette gérante d’un fast-food.
Dans l’État de New York, le gouverneur Andrew Cuomo a mis en garde contre cette vague de froid qui doit durer jusqu’au 2 janvier. Les températures devraient tomber jusqu’à -40°C dans le nord de l’État à partir de jeudi. Un sans-abri est mort de froid dans la ville de Cincinnati, dans l’Ohio. Son corps a été découvert mardi matin à un arrêt de bus, dans le centre-ville. La température dans cet État du nord des États-Unis est de -10C° pendant la journée mais tombe jusqu’à -15°C pendant la nuit.
Le froid s’accompagne également de chutes de neige record. A Erié, non loin des chutes du Niagara et dont le lac sert de frontière naturelle avec le Canada, il est tombé 1,5 mètre de neige en seulement 48 heures. Les autorités locales ont dû instaurer un état d’urgence qui va permettre de réquisitionner le matériel lourd nécessaire pour éviter les accidents potentiels.
Les 147 centimètres de neige, expliquent les météorologues, ont été accompagnés de vents glacés soufflant depuis le lac dans cette ville de la pointe nord de la Pennsylvanie. Les habitants ont été invités à rester cloitrés chez eux avec des produits de première nécessité.
Selon les données des services météo américains, les 86 cm de neige tombés le jour de Noël sont un record absolu pour la ville, loin devant les 51 cm du 22 novembre 1956. Sur les deux jours, du lundi au mardi, la chute de 1,5 mètre de neige a également pulvérisé un record de 1958. Sur l’ensemble du mois, les 245 cm de neige cumulée ont là aussi battu un record, faisant de décembre le mois le plus neigeux de l’histoire d’Erié.
Des températures jusqu’à -50°C
La vague de froid est encore plus extrême au Canada, où le nord de l’Ontario devrait lui aussi connaître un record avec des températures à -50°C. «Des froids qui s’installent aussi longtemps et sur une étendue aussi grande, de mémoire, je n’en ai jamais connu», a affirmé à l’AFP Alexandre Parent, météorologue de l’agence fédérale Environnement Canada.
Selon lui, bien plus que le thermomètre, c’est l’étendue de la vague de froid et sa durée qui rendent cet épisode exceptionnel. L’agence fédérale a publié des avertissements de froid extrême lié à une poussée de l’air arctique pour les provinces du Québec, de l’Ontario, du Manitoba, de la Saskatchewan et de l’Alberta. «Un avertissement de froid extrême est émis lorsque le refroidissement éolien ou les températures très froides présentent un danger élevé pour la santé (engelure, hypothermie, etc.)», précise Environnement Canada sur son site. «Nous sommes en-deçà de 10 à 20 degrés Celsius des normales de saison», a abondé M. Parent.
RépondreSupprimerLes nourrissons, les jeunes enfants, les personnes âgées, les personnes à mobilité réduite et les sans-abri sont les plus sensibles à ces froids extrêmes, a averti le ministère de la Santé. Les refuges pour les sans-abri s’organisent pour faire face à une hausse des demandes d’hébergement et les appels sont lancés pour venir en aide aux plus démunis et à faire des dons de vêtements chauds.
Par ailleurs, des vents violents pouvant atteindre jusqu’à 120 km/h associés aux basses températures ont privé d’électricité près de 160.000 foyers en Nouvelle-Ecosse (est), soit près d’un tiers des clients de la province.
Cette vague de froid inédite devrait durer jusqu’au début de la nouvelle année, a prévenu Environnement Canada.
.
Vague de froid en Europe: au moins 40 morts
La vague de froid qui touche l’Europe depuis la fin de la semaine dernière, avec des températures polaires qui devraient toutefois s’adoucir dans les prochains jours, a fait au moins 40 morts, pour la plupart en Pologne.
L’organisation Médecins sans Frontières a dénoncé lundi la situation «particulièrement préoccupante» de milliers de migrants et réfugiés qui sont bloqués dans les îles grecques, «vivant sous la tente dans des camps surpeuplés», ou dans les Balkans dont certains se sont réfugiés dans des immeubles abandonnés de Belgrade.
Elle fustige «la négligence cynique des politiques des pays européens, aggravée par des températures glaciales et un manque de préparation à l’hiver (qui) a empiré une situation déjà insoutenable pour des milliers d’hommes, de femmes venus chercher une protection en Europe».
Cette vague de froid venue de Scandinavie a provoqué de nombreux accidents de la route comme en France, où quatre ressortissants portugais ont été tués et une vingtaine blessés dans un accident de car dimanche.
Dix personnes encore sont mortes de froid, dimanche en Pologne où les températures sont restées en dessous de -20°C dans certaines régions, a annoncé lundi le Centre gouvernemental de sécurité nationale (RCB).
Dix autres personnes étaient déjà décédées vendredi et samedi dans le pays. Selon les prévisions météorologiques, les températures s’annoncent légèrement plus clémentes dans les jours qui viennent en Pologne, mais doivent rester bien au-dessous de zéro.
En République tchèque, la vague de froid a fait au moins six morts depuis vendredi, pour la plupart des sans-abri, ont annoncé lundi les autorités. Quatre d’entre eux sont morts dans la capitale Prague, où les températures sont descendues à -15°C,et deux autres, dont un Slovaque, à Brno et Karvina, dans l’est du pays.
RépondreSupprimerLa vague de froid a commencé à s’atténuer en Europe occidentale, mais il faisait toujours froid lundi en Italie où deux nouveaux décès ont été annoncés par la presse, un homme de 82 ans retrouvé mort dans sa maison dépourvue de chauffage près de Brindisi (sud) et un homme de 78 ans mort d’une chute à cause d’un malaise dû au froid.
Sept personnes, dont cinq sans-abri, étaient décédées pendant le week-end en Italie où les écoles de nombreuses zones sont restées fermées lundi à cause de la neige ou du verglas, en particulier dans les montagnes des Abruzzes (centre), mais aussi dans les Pouilles et en Calabre (sud) ou encore autour de Palerme.
Froid polaire dans les Balkans
Dans les Balkans, les températures sont descendues jusqu’à -28°C ce week-end en Macédoine et un sans-abri de 68 ans a été découvert mort dans un quartier de la capitale, Skopje.
En Serbie, la température la plus basse a été enregistrée dimanche dans la ville de Sjenica, dans le sud-ouest, avec -33°C, et la navigation sur le Danube et la Sava a été interrompue.
Selon MSF, 7500 migrants sont actuellement coincés dans ce pays en raison de la fermeture de la route des Balkans. A Belgrade, des dizaines de migrants se sont réfugiés dans un entrepôt désaffecté proche de la gare, en raison des températures atteignant -15 dans la nuit de dimanche à lundi.
«C’est très dur, surtout la nuit», a affirmé Niamat Khan, un adolescent afghan de 13 ans. «J’attends depuis trois mois et je ne sais pas quand je vais pouvoir continuer mon voyage», a-t-il ajouté.
Ces migrants refusent de rejoindre les centres d’accueil officiels de peur d’être renvoyés vers les pays par lesquels ils sont entrés en Serbie (la Bulgarie ou la Macédoine).
«Personne ne nous aide, il fait très froid et je me demande comment nous allons supporter cette situation», a renchéri Ismail Khikimi, un autre Afghan âgé de 16 ans.
En Grèce, dans le camp de Moria, «plus de 2500 personnes vivent sous la tente, sans eau chaude ni chauffage, y compris des enfants, des femmes et des personnes handicapées», a affirmé Apostolos Veïzis, un responsable de l’ONG Médecins sans Frontières, sur la radio Vima.
Au Belarus, deux personnes sont mortes de froid dimanche. Le thermomètre, après avoir chuté à -30°C pendant le week-end, devait remonter à -15°C lundi.
Deux autres personnes sont mortes d’hypothermie depuis le début de l’année à Moscou où la température était de -25 degrés lundi.
En Turquie, un épais manteau de neige recouvrait Istanbul pour la troisième journée consécutive, provoquant l’annulation de centaines de vols et plongeant dans le désarroi des milliers de voyageurs.
La compagnie aérienne Turkish Airlines a encore dû annuler lundi 277 vols au départ des deux aéroports stambouliotes, après avoir déjà dû en supprimer plus de 600 au cours du week-end.
Le trafic sur le Bosphore, l’un des détroits les plus empruntés du monde, a été à nouveau complètement interrompu lundi par les gardes-côtes, malgré une reprise dimanche, du fait de la mauvaise visibilité.
RépondreSupprimer.
Une «bombe cyclonique» menace la côte Est des États-Unis
Image satellite de la tempête hivernale frappant le nord est des Etats-Unis. 4 janvier 2018. National Oceanic and Atmospheric Administration (NOAA)
Une tempête hivernale en cours de formation au large de la Floride pourrait s’intensifier extrêmement vite dans les jours à venir. Toute la côte Est du pays est en alerte.
Une tempête hivernale d’une rare intensité est en cours de formation au large de la côte sud-est des États-Unis. Des médias américains, tels que Mashable et le Washington Post, évoquaient même mardi soir une possible «bombe cyclonique». En météorologie, le terme de «bombe» qualifie la formation extrêmement rapide d’une dépression très intense. Il faut techniquement que la pression chute de plus de 24 millibars en moins de 24h pour que l’on puisse qualifier une tempête de «bombe».
Or le National Weather Service américain (équivalent de Météo-France) prévoyait justement un «creusement» de la dépression de 44 millibars entre mercredi et jeudi matin (heure locale) au fur et à mesure qu’elle remonte vers le nord. La pression pourrait même chuter à 950 millibars jeudi soir, lorsque la tempête sera remontée au large des côtes de la Nouvelle-Angleterre, à l’extrême nord-est du pays. Ce type de basse pression est typique de ce que l’on rencontre au cœur d’un cyclone tropical de catégorie 3, mais ce serait quasiment du jamais vu pour une tempête hivernale dans cette région. D’où le terme de «bombe cyclonique».
Le moteur de cette tempête serait alimenté par la très grande différence de températures entre la grosse poche d’air polaire coincée au-dessus du Canada et des États-Unis et les eaux de surface particulièrement chaudes du courant océanique Gulf Stream dans l’Atlantique.
Le terme de «bombe» ne qualifie que l’explosivité du phénomène et ne présage en rien des dégâts qui sont attendus. Tout dépendra de la trajectoire précise de la dépression. Mercredi matin, l’intégralité de la côte Est, de la Floride à la Nouvelle-Angleterre, était placée en alerte «tempête hivernale» ou «blizzard». Les régions les plus au sud pourraient être touchées par quelques chutes de neige éparses ou des pluies verglaçantes inhabituelles pour la région, quand le nord, Boston notamment, pourrait être balayé de vents violents pouvant atteindre 80 km/h conjugués à des chutes de neige intenses atteignant plusieurs dizaines de centimètres dans la journée de jeudi. En raison de coefficients de marée élevés, des inondations côtières «mineures à modérées» sont possibles en fonction de la hauteur des vagues, prévient aussi le Weather Prediction Center.
Les prévisions pour la ville de New York oscillent encore entre chutes de neige importantes (entre 5 et 10 cm) et tempête de neige intense (quelques dizaines de centimètres) en fonction de l’évolution de la trajectoire de cette tempête. Une légère bifurcation vers l’ouest pourrait avoir d’importantes répercussions sur la météo de toute cette région très densément peuplée des États-Unis. Puis la dépression poursuivra sa route vers le Canada et Québec.
RépondreSupprimerQuel que soit le scénario, les prévisionnistes américains anticipent un brusque refroidissement consécutif au passage de la tempête. La vague de froid polaire qui est actuellement bloquée dans la baie Hudson au Canada devrait en effet s’engouffrer au sud pour frapper New York, Boston ou Washington D.C. ainsi que le MidWest. Des records de froid historiques pourraient être battus entre vendredi et dimanche.
http://etat-du-monde-etat-d-etre.net/de-la-terre/meteo/rechauffement-climatique-oblige-lhemisphere-nord-sous-une-vague-de-froid-sans-precedent
Les adultes plus âgés développent autant de nouvelles cellules cérébrales que les jeunes: étude
RépondreSupprimer5 avril 2018,
Cell Press
Les chercheurs montrent pour la première fois que les hommes et les femmes âgés en bonne santé peuvent générer autant de nouvelles cellules cérébrales que les plus jeunes.
Il y a eu une controverse sur la question de savoir si les humains adultes développent de nouveaux neurones, et certaines recherches ont déjà suggéré que le cerveau adulte était câblé et que les adultes ne cultivaient pas de nouveaux neurones. Cette étude, à paraître dans la revue Cell Stem Cell le 5 avril, contredit cette notion. Selon l'auteur principal, Maura Boldrini, professeur agrégé de neurobiologie à l'Université de Columbia, les résultats suggèrent que de nombreux citoyens âgés restent plus intacts cognitivement et émotionnellement qu'on ne le croit généralement.
"Nous avons constaté que les personnes âgées ont une capacité similaire à fabriquer des milliers de nouveaux neurones de l'hippocampe à partir de cellules progénitrices, comme le font les personnes plus jeunes", explique Boldrini. "Nous avons également trouvé des volumes équivalents de l'hippocampe (une structure du cerveau utilisée pour l'émotion et la cognition) à travers les âges.Malgré, les individus plus âgés avaient moins de vascularisation et peut-être moins de nouveaux neurones pour établir des connexions."
Les chercheurs ont autopsié des hippocampes de 28 individus précédemment en bonne santé âgés de 14 à 79 ans qui étaient morts subitement. C'est la première fois que les chercheurs examinent les neurones nouvellement formés et l'état des vaisseaux sanguins dans l'ensemble de l'hippocampe humain peu après la mort. (Les chercheurs avaient déterminé que les sujets de l'étude n'avaient pas de troubles cognitifs et n'avaient pas souffert de dépression ou pris des antidépresseurs, ce que Boldrini et ses collègues avaient précédemment trouvé pourrait avoir un impact sur la production de nouvelles cellules cérébrales.)
Chez les rongeurs et les primates, la capacité à générer de nouvelles cellules de l'hippocampe diminue avec l'âge. Une diminution de la production de neurones et un rétrécissement global du gyrus denté, une partie de l'hippocampe que l'on pensait pouvoir aider à former de nouveaux souvenirs épisodiques, se produisaient également chez les humains vieillissants.
Les chercheurs de l'Université de Columbia et du New York State Psychiatric Institute ont découvert que même les cerveaux les plus anciens étudiés produisaient de nouvelles cellules cérébrales. "Nous avons trouvé des nombres similaires de progéniteurs neuraux intermédiaires et des milliers de neurones immatures", ont-ils écrit. Néanmoins, les personnes âgées forment moins de nouveaux vaisseaux sanguins dans les structures cérébrales et possèdent un plus petit bassin de cellules progénitrices, descendantes de cellules souches qui sont plus limitées dans leur capacité à se différencier et à s'auto-renouveler.
Boldrini a supposé que la réduction de la résilience cognitive-émotionnelle chez les personnes âgées pourrait être causée par ce petit bassin de cellules souches neurales, le déclin de la vascularisation et la réduction de la connectivité entre les cellules de l'hippocampe. "Il est possible que la neurogenèse hippocampique en cours soutienne la fonction cognitive spécifique à l'homme tout au long de la vie et que les déclins peuvent être liés à une résilience cognitive-émotionnelle compromise", dit-elle.
RépondreSupprimerBoldrini dit que de futures recherches sur le cerveau vieillissant continueront d'explorer comment la prolifération, la maturation et la survie des cellules nerveuses sont régulées par des hormones, des facteurs de transcription et d'autres voies inter-cellulaires.
https://medicalxpress.com/news/2018-04-older-adults-brain-cells-young.html
Une nouvelle découverte explique pourquoi des cellules ayant des gènes identiques effectuent des tâches uniques
RépondreSupprimer5 avril 2018,
Trinity College Dublin
Les scientifiques ont fait une découverte significative qui explique comment et pourquoi les milliards de cellules différentes dans notre corps regardent et agissent si différemment malgré la présence de gènes identiques. La découverte, faite par une équipe de l'Institut Smurfit de génétique au Trinity College de Dublin, s'applique à tous les animaux complexes, y compris les humains.
L'équipe a découvert une toute nouvelle famille de protéines chez les animaux avec des vertèbres - y compris les poissons, les reptiles, les oiseaux et les mammifères - qu'ils ont nommé PALI1 et PALI2. De manière fascinante, ces familles de protéines proviennent toutes deux de gènes qui ont acquis de nouvelles fonctions depuis que des espèces de vertébrés et d'invertébrés ont évolué l'une de l'autre il y a des millions d'années. Plus précisément, PALI1 est vital pour le développement embryonnaire et en particulier pour le contrôle de l'identité cellulaire.
Adrian Bracken, professeur agrégé en génétique à Trinity, a dirigé l'équipe qui vient de publier les résultats dans le principal journal scientifique international, Molecular Cell. Le Dr Eric Conway et le Dr Emilia Jerman, les principaux auteurs de l'article, travaillaient auparavant comme étudiants au doctorat dans le laboratoire du professeur Bracken, tandis que l'équipe collaborait également avec le laboratoire Haruhiko Koseki de l'Institut Riken au Japon.
Le nouveau travail aide à comprendre pourquoi une cellule sanguine et une cellule cérébrale ont l'air et agissent très différemment, mais contiennent exactement les mêmes gènes. Cette question déroutante à propos de la soi-disant «identité cellulaire» est centrale dans le domaine de l'épigénétique, qui s'efforce d'expliquer comment les cellules de votre corps, avec des ensembles identiques de gènes, peuvent se comporter et se comporter différemment. L'étude de l'épigénétique a fourni des aperçus moléculaires clés sur la façon dont chaque type de cellule a son propre modèle unique de gènes qui sont activés ou désactivés d'une manière étroitement contrôlée.
Au centre de tout cela se trouve un groupe de régulateurs épigénétiques, appelés polycombes, qui sont essentiels à la régulation de l'identité cellulaire dans les organismes multicellulaires des règnes végétal et animal. Le laboratoire Bracken étudie la biologie de ces régulateurs épigénétiques Polycomb, et leurs protéines PALI1 et PALI2 nouvellement découvertes forment une nouvelle famille de polycombes uniques en ce sens qu'ils ne sont présents que chez les vertébrés - ils ne sont pas présents chez les invertébrés ou les plantes.
Commentant les résultats, le professeur Bracken a déclaré: "Cette découverte de PALI1 et PALI2 est un pas important dans notre compréhension de la spécialisation des cellules souches dans des animaux complexes, tels que les poissons, les reptiles, les oiseaux et les mammifères."
«En plus de sa pertinence pour la biologie des cellules souches et la médecine régénérative, elle pourrait également avoir des implications pour de futures thérapies anticancéreuses.Par exemple, nous étudions également une protéine polycomb appelée EZH2, dont la fonction est dérégulée dans certains cancers du sang et du cerveau. de nouveaux médicaments ont été développés pour cibler EZH2 pour traiter ces patients, mais nos nouveaux résultats suggèrent que ces patients pourraient aussi potentiellement être traités par des médicaments ciblant les protéines PALI1 et PALI2 Polycomb, ce qui pourrait apporter un bénéfice supplémentaire.
RépondreSupprimer«Cette recherche en cours dans le laboratoire Bracken est soutenue par un financement de l'Irish Cancer Society, du Irish Research Council, de Worldwide Cancer Research, du Health Research Board et de la Science Foundation Ireland, ce dont nous sommes très reconnaissants.
https://phys.org/news/2018-04-discovery-cells-identical-genes-unique.html#jCp
1,5 milliard de documents sensibles sur internet ouvert: chercheurs
RépondreSupprimer5 avril 2018
Les chercheurs disent que de vastes quantités de fichiers sensibles sur l'Internet ouvert, il est plus facile pour les pirates et autres de voler des données
Quelque 1,5 milliard de fichiers en ligne sensibles, des talons de chèque aux analyses médicales en passant par les demandes de brevet, sont visibles sur Internet, ont déclaré jeudi des chercheurs en sécurité.
Des chercheurs de Digital Shadows, un cabinet de cybersécurité, ont déclaré qu'un outil de numérisation utilisé au cours des trois premiers mois de l'année 2018 avait permis de trouver en ligne des montagnes de données privées de personnes et d'entreprises du monde entier.
Les données non protégées s'élevaient à environ 12 pétaoctets, soit quatre mille fois plus que le document "Panama Papers" qui exposait la corruption potentielle dans des dizaines de pays.
"Ce sont des fichiers qui sont disponibles gratuitement" à toute personne ayant des connaissances techniques minimales, a déclaré Rick Holland, vice-président de Digital Shadows.
Holland a déclaré à l'AFP que son équipe avait scanné le web et trouvé des fichiers non sécurisés, ajoutant "nous n'avons authentifié quoi que ce soit".
La disponibilité des données ouvertes facilite le piratage des informations sensibles par les pirates informatiques, les États-nations ou les entreprises rivales, a indiqué M. Holland.
"Cela facilite beaucoup les tâches des attaquants, cela raccourcit la phase de reconnaissance", a-t-il ajouté.
Les chercheurs ont déclaré dans le rapport que même si les pirates informatiques attaquaient les données sensibles, "nous ne nous concentrons pas sur nos empreintes digitales externes et sur les données déjà disponibles publiquement via un stockage cloud mal configuré, des protocoles d'échange de fichiers et des services de partage de fichiers. "
Une grande partie des données laissées ouvertes provenait des fichiers de paie et de déclaration de revenus, qui représentaient respectivement 700 000 et 60 000 fichiers, a indiqué Digital Shadows.
Il a noté que les fichiers médicaux et les listes étaient également faiblement protégés, avec environ 2,2 millions de scanners corporels ouverts à l'inspection.
De nombreux secrets d'entreprise étaient également dévoilés, notamment des modèles, des résumés de brevets et des détails sur des produits encore à paraître.
"Alors que les organisations peuvent considérer les initiés, les intrusions réseau et les campagnes d'hameçonnage comme des sources d'espionnage, ces résultats démontrent qu'il existe déjà une grande quantité de données sensibles disponibles publiquement", indique le rapport.
Les chercheurs ont indiqué qu'environ 36% des dossiers étaient situés dans l'Union européenne. Les États-Unis avaient la plus grande quantité pour un seul pays avec 16%, mais des fichiers exposés ont également été vus dans le monde entier, y compris en Asie et au Moyen-Orient.
RépondreSupprimerEnviron sept pour cent des données se trouvaient dans un cloud "mal configuré". Holland a déclaré que le problème principal n'était pas le cloud computing mais la façon dont les utilisateurs gèrent leurs données.
Dans certains cas, les utilisateurs «sauvegardent leurs données sur le Web (ouvert) sans le savoir», a déclaré Holland.
La majorité des fichiers trouvés par Digital Shadows ont été exposés par de mauvaises pratiques de sécurité dans les serveurs et les protocoles de partage de fichiers.
"Les tiers et les sous-traitants étaient parmi les sources les plus communes d'exposition de données sensibles", indique le rapport.
https://phys.org/news/2018-04-bn-sensitive-documents-internet.html#jCp
LES CRIMINELS FONT DESORMAIS LEUR LOI ! ET INTERDISENT AUX HABITANTS DE SE DEFENDRE !!
RépondreSupprimerLa ville de l'Illinois contourne la Constitution, les citoyens américains ont donné 60 jours pour transformer en armes ou devenir des criminels
par Tyler Durden
Ve, 04/06/2018 - 08:24
Auteur de Jack Burns via The Free Thought Project,
Les résidents d'une ville de l'Illinois ont reçu un décret inconstitutionnel de leur gouvernement local, ils ont maintenant 60 jours pour abandonner leurs armes ou être condamnés à une amende de 1000 $ par jour ...
Comme l'État promet des militants pour les droits des armes à feu, ils ne viennent pas pour leurs armes, dans les coulisses, ils plaident pour que cela se produise. Et maintenant, la saisie des armes redoutée se produit. Les résidents de Deerfield, en Illinois, ont 60 jours pour remettre leurs «armes d'assaut» ou faire face à des amendes de 1 000 $ par jour et par arme à feu.
L'ordonnance d'interdiction des armes à feu a été adoptée le 2 avril et les résidents ont peu de choix quant à la façon de se débarrasser de leurs précieuses «armes d'assaut». Après une lecture attentive de l'ordonnance, les résidents auront des revolvers, des fusils de calibre .22 fusils à double canon pour défendre leurs maisons et leurs familles contre les criminels qui se moquent de la loi.
Les amendes pour ne pas disposer des armes varient de 250 $ à 1000 $ par jour par arme pour ceux qui choisissent de ne pas se conformer à l'ordonnance de la ville. Bien qu'une amende puisse sembler raisonnable à certains, comme TFTP l'a signalé à plusieurs reprises, le non-paiement des amendes entraîne toujours l'intervention de la police. Il n'est pas exagéré de prédire une grande agitation et des arrestations en cas de non-conformité.
Un exemple de ce que l'on appelle "l'arme d'assaut" est le Ruger 10/22 qui peut accepter des magazines qui contiennent plus de 10 cartouches. Même si le 10/22 ne figure pas sur la liste des armes que le village veut interdire, le canon ne peut être légalement possédé dans le village.
Les résidents ont reçu l'ordre de vendre leurs armes, de transférer la propriété à quelqu'un qui vit à l'extérieur du village, de remettre leurs armes au shérif de Deerfield ou de commencer à payer les amendes.
Deerfield a mentionné un certain nombre de villes où des fusillades de masse ont eu lieu, y compris Sutherland Springs, TX, où 26 personnes ont été tuées dans la First Baptist Church. Ce tir a été effectivement arrêté par un homme qui a utilisé l'arme que Deerfield a voté pour interdire. Aucune mention n'a été faite de ce fait dans l'ordonnance.
Les pistolets semi-automatiques inclus dans l'interdiction des armes à feu peuvent accepter plus de 10 chargeurs ronds. C'est pratiquement tous les pistolets semi-automatiques de taille normale.
Même si les administrateurs du village ont ignoré les appels des habitants à laisser leurs armes à feu et ont malgré tout adopté l'ordonnance, de nombreux résidents ont été encouragés à ignorer l'interdiction des armes à feu et à se livrer à la désobéissance civile.
RépondreSupprimerJoel Siegel, un résident de Lincolnwood, a averti les résidents du village que les gouvernements du monde entier ont déménagé pour confisquer les armes, puis se sont retournés et ont couru sur le peuple. Il a dit,
"Il existe une tradition américaine ancienne et honorée appelée désobéir à une loi injuste ... J'ai exhorté (les gens) à écouter leur conscience et, s'ils sont émus, n'obéissent pas à cette loi."
La mairesse de Deerfield, Harriet Rosenthal, a laissé entendre que les élèves de l'école secondaire locale ont aidé à influencer sa décision d'amener l'ordonnance.
"Assez, c'est assez", a déclaré Rosenthal, ajoutant: "Ces étudiants sont si éloquents, tout comme nos étudiants. Il n'y a pas de place ici pour les armes d'assaut. "
La déclaration reflète la réaction irréfléchie à l'interdiction des armes à feu à la suite d'un tollé national à l'échelle nationale d'étudiants qui craignaient soi-disant pour leur propre vie après le récent tir de masse en Floride.
Les adversaires de l'arme à feu ont promis de se battre contre l'action devant le tribunal tandis que d'autres ont salué la décision des syndics d'interdire les fusils semi-automatiques, les pistolets et les fusils de chasse. Ariella Kharasch, une aînée de Deerfield High School, a déclaré qu'elle souhaitait que davantage de mesures soient prises au niveau local et national.
"C'est notre combat ... C'est le combat de notre génération. Nous allons continuer à nous battre et cela en fait partie. Le changement se produit progressivement, étape par étape. La lutte ne se termine pas aux frontières de notre village ", a déclaré Kharasch.
Prévisible, les forces de l'ordre et les membres retraités de la police sont exemptés de l'interdiction. Actuellement, aux États-Unis, les forces de l'ordre tuent environ 1 200 citoyens par an. Ironiquement, ce nombre est en fait quatre fois plus élevé que ceux qui meurent de fusils.
Comme l'a rapporté le TFTP, les flics ont tué 450 % de personnes de plus que ce qui est mort ces quarante dernières années.
Ordonnance sur les armes d'assaut de Deerfield:
- voir sur site:
https://www.zerohedge.com/news/2018-04-06/illinois-town-bypasses-constitution-us-citizens-given-60-days-turn-guns-or-become
Plusieurs fruits et légumes chaque jour ? Un non-sens pour la santé …
RépondreSupprimerle 6 avril 2018
Depuis des années les médias nous serinent à longueur de journée que manger des fruits et des légumes chaque jour et même plusieurs fois par jour c’est bon pour la santé. En réalité qu’en est-il vraiment de cette affirmation à l’emporte-pièce ? Tout simplement un gros mensonge ! Certes les vitamines trouvées dans les fruits – essentiellement les vitamines du groupe B mais pas toutes – sont utiles pour la santé alors que ces fruits contiennent en outre des quantités extravagantes de sucres directement assimilables par l’organisme à ne pas confondre avec les sucres dits « lents », amidon et fécule par exemple.
Et le sucre commence à devenir la bête noire des nutritionnistes car les autorités sanitaires de nombreux pays et pas seulement de l’OCDE ont finalement reconnu que l’abus de sucres était carrément mauvais pour la santé : l’obésité est bien corrélée à la quantité de sucre ingérée par un individu chaque jour. Outre le pain, les pâtes, les pommes de terre et les pâtisseries (les 4 P) qui sont majoritairement constitués de sucres, les fruits sont également très riches en carbohydrates. Une banane contient un peu plus de 25 grammes de sucre et une orange 15 grammes. Manger 3 à 4 fruits par jour représente jusqu’à 90 grammes de sucre.
Il se trouve qu’au cours de la patiente sélection des fruits durant plusieurs millénaires a conduit à augmenter du manière générale la teneur en sucre des fruits mais aussi des légumes tout en améliorant leurs propriétés organoleptiques : goût, aspect, conservation, couleur et bien d’autres traits. La pastèque, telle qu’elle a été peinte par Giovanni Stanchi au XVIIe siècle n’avait rien à voir avec celle d’aujourd’hui,
de même que la banane qui était littéralement envahie de pépins ou encore la pêche et la carotte.
Systématiquement tous les fruits ou légumes se sont vus au cours de la sélection enrichis en sucres, y compris les carottes !
Il ne faut donc pas prendre à la lettre les recommandations des nutritionnistes. Si je mange une à deux bananes chaque jour c’est aussi parce c’est bon pour lutter contre les contractures musculaires et quand je suis dans un restaurant je suis souvent effaré de voir d’autres clients manger du pain pour accompagner un mets contenant des pommes de terre ou des légumineuses, haricots, fèves, etc, c’est tout simplement rajouter des sucres à des sucres, puis en dessert se régaler d’une salade de fruits (ici dans l’archipel des Canaries c’est la pleine saison des fraises, excellentes par ailleurs) dégustées avec un ou deux biscuits : tout simplement un non-sens sanitaire.
Sources et illustrations : Science Alert et blog de Donna Laframboise
https://jacqueshenry.wordpress.com/2018/04/06/plusieurs-fruits-et-legumes-chaque-jour-un-non-sens-pour-la-sante/
SUISSE - COOP CONTINUE DE BANNIR DES PRODUITS NESTLÉ
RépondreSupprimerLa bataille opposant le distributeur à la multinationale de Vevey s'intensifie. Jusqu'à ce jour, Coop a déjà banni plus de 200 articles Nestlé de ses rayons.
06.04.2018, 14h43
Toute une série de grands distributeurs européens ont actuellement une dent contre Nestlé. En cause: de mauvaises conditions d'achat. C'est du moins l'avis de Coop, le géant allemand Edeka ou encore l'enseigne française de grande distribution Intermarché, tous membre d'une alliance nommée Agecore. A la mi-février, les hostilités avaient mené au boycott d'environ 150 produits de la multinationale vaudoise, révélaient notamment la «Tribune de Genève» et «24 Heures». Interrogé à l'époque par les deux journaux romands, un responsable presse de Coop avait expliqué: «Nous ne voulons pas être désavantagés vis-à-vis de distributeurs d’autres pays. Nous exigeons des prix équitables et des conditions réelles de partenariat. C’est seulement comme ça que nous pouvons offrir un assortiment attrayant à notre clientèle.»
«Les négociations sont en cours»
Des recherches de «20 Minuten» montrent désormais que la situation n'est pas près de se calmer. Comme Nestlé continue à camper sur ses positions, les membres de l'alliance Agecore ont décidé de bannir davantage d'articles de leurs étals. Urs Meier, porte-parole de Coop, confirme: «Actuellement, environ 200 produits Nestlé sont bannis de notre assortiment.» Concrètement, cela signifie que le distributeur bâlois a viré environ 50 nouveaux articles au cours des dernières semaines. Les observations faites dans les filiales montrent que ce sont avant tout les produits Thomy, le condiment Maggi, certaines pizzas Buitoni ou encore Cailler Perles qui sont concernés. «Les négociations sont en cours. Nous ne pouvons pas davantage nous exprimer sur l'affaire», conclut Urs Meier.
No comment chez Nestlé
Reste que l'enjeu de ces négociations est de taille, tant pour Nestlé que pour les distributeurs. Selon la revue spécialisée «Lebensmittelzeitung», un dixième du chiffre d'affaires européen de la multinationale vaudoise dépendrait des membres d'Agecore. Les détaillants, eux, risquent de réduire de 30% le bénéfice réalisé avec les produits Nestlé. Selon des estimations de la Banque cantonale zurichoise, ces 30% correspondraient à environ 600 millions de francs.
Depuis le début du conflit, Nestlé n'a pas voulu s'exprimer sur l'affaire. (Le Matin)
https://www.lematin.ch/economie/coop-continue-mettre-pression-nestle-bannissant-certains-produits/story/19099550
Y aura-t-il un El Niño 2018/19 ?
RépondreSupprimerBob Tisdale
6 avril 2018
On dirait que l'un peut être en train de se former en ce moment.
Judith Curry a publié les prévisions d'ENSO pour 2018 hier. Sur le fil (ici) j'ai demandé et déclaré:
Judith, la question à laquelle il faut répondre: Les conditions météorologiques sont-elles propices à une série de rafales de vent d'ouest dans le Pacifique tropical occidental ? Si le vent d'ouest n'éclate pas pour déclencher des vagues de Kelvin descendant, il n'y aura pas d'El Niño.
Donc, ce matin, j'ai vérifié avec le site web de NOAA GODAS, et, oui, il y a eu des rafales de vent d'ouest cette année. Voir l'intrigue de hovmoller de l'anomalie de surface de vent du vent de surface sur la page web de GODAS Pentad Anomaly Products (ma Figure 1 ci-dessous).
- voir carte sur site -
Ensuite, il était temps de vérifier les anomalies de température sous la surface pour le Pacifique équatorial. Et ils peuvent être trouvés sur la page web du CDC NOAA ici. Voir l'animation 1 ci-dessous. Une vague de Kelvin descendant se fraye déjà un chemin à travers le Pacifique équatorial.
- voir carte animée sur site -
Donc, pour répondre à la question du titre, il apparaît évidemment que les phases initiales des processus qui initient un phénomène El Niño sont déjà en cours.
Un épisode El Niño en 2018/19 sera-t-il assez fort pour élever en permanence la température de la surface de la mer à l'échelle mondiale ?
Seul le temps nous le dira. Et si vous vous demandez comment un El Niño fort peut (et fait) élever de façon permanente les températures de la surface de la mer à l'échelle mondiale, alors vous n'avez évidemment pas lu mon ebook Papa, Pourquoi es-tu un déni du réchauffement climatique ? - Une histoire courte qui est juste pour les temps, qui est disponible dans Kindle ebook et dans les éditions de poche. Dans ce livre, j'ai expliqué comment un El Niño fort peut (et fait) augmenter de façon permanente la température de la surface de la mer à l'échelle mondiale, si bien qu'un enfant de huit ans peut la comprendre. Comment puis-je savoir ? Dans la vraie vie, je l'ai expliqué à un enfant de huit ans, et il a compris, pas de problème. BTW, je n'ai pas discuté, et n'ai pas l'intention de discuter, cet aspect très simple de la forte El Niños dans un blog.
Ciao !
https://wattsupwiththat.com/2018/04/06/will-there-be-a-2018-19-el-nino/
Malgré que les pôles soient les plus près du magma et qu'il existe des sources chaudes sous les glaciers, l'effet centrifuge de la Terre (plus rapide à l'équateur qu'aux pôles) fait naître les volcans les plus violents sous les tropiques. Leurs géolocalisations sous-océaniques semblent se modifier au fil des années, mais constituent toujours les plus hautes et plus chaudes cheminées connues donnant naissance aux cyclones.
Supprimerhttps://huemaurice5.blogspot.fr/2017/12/est-ce-que-40-000-volcans-sont.html
https://huemaurice5.blogspot.fr/2015/03/les-volcans-sous-marins-finalement-pris.html
https://www.ventusky.com
https://huemaurice5.blogspot.fr/2018/01/la-terre-est-une-planete-froide.html
Dans un faux marché libre 2000 MW = 1000 MW et le charbon de Liddell vaut plus que détruit
RépondreSupprimerApril 6th, 2018
Le marché australien Fake Free est tellement foutu. Quel actif vaut plus dans la poubelle que vendu à un soumissionnaire consentant ?
Tout le monde parle de Liddell. L'ancienne centrale au charbon est sur le point de perdre du terrain en 2022 et nous pouvons voir la hausse des prix de l'électricité venir d'ici.
Les gens en Australie vont sans leurs veges pour payer l'électricité. La centrale au charbon de Liddell produit de l'électricité bon marché (comme les anciennes centrales au charbon partout dans le monde). C'est un problème qui se résoudrait si ce n'était pour Malcolm Turnbull, le RET et l'AEMO. Il faut beaucoup d'argent et des flottes entières de bureucrats pour empêcher le marché libre de régler cela par défaut.
AGL est le plus grand producteur de charbon en Australie, mais c'est aussi le plus gros producteur de toto et le plus gros investisseur en énergie renouvelable à la bourse australienne. Repérer le conflit d'intérêts ? La société contrôle 30 % de la production dans nos deux plus grands états et 40 % en Australie-Méridionale. Le responsable d'AGL - Andy Vesey - anciennement de New York, gagne 6,9 millions de dollars et peut probablement se permettre de payer sa propre facture d'électricité. Mais comme le souligne Tony Cox, il s'est entouré de Gore-stagiaires et de membres du personnel de l'ALP. Pas une bonne combinaison pour un homme contrôlant quelque chose comme un cinquième (plus?) De notre puissance génératrice. Il n'est pas surprenant que, après que le gouvernement de NSW ait pratiquement donné l'ancienne mine de charbon gratuitement à AGL en 2014, il semble que la société ait lancé Liddell dans le sol.
Plutôt que d'être incompétent, cela fait sans doute partie du plan, et un avantage pour les actionnaires du nouveau monde tribal de Good-Lectrons: Bad-Lectrons. Après quelques années de gestion AGL, il ne vaudra pas la peine de prendre le relais.
Quand 2000 est égal à 1000
Un autre exemple de "ces gens ne sont pas bons avec les chiffres". AGL prévoit de remplacer 2250 MW de charbon fiable par 990-2050 MW de variables aléatoires. Merci à Judith Sloan de Catallaxy:
- voir tableau sur site -
Capacité de production Liddell, remplacements.
...
Qu'est ce qui pourrait aller mal ?
Quelqu'un peut-il demander à Vesey d'expliquer comment cette solution renouvelable rendra l'électricité moins chère lorsque les pénuries d'approvisionnement seront plus probables, qu'un générateur bon marché sera retiré du marché, que les offres moyennes augmenteront et que les pics d'approvisionnement seront plus probables.
La meilleure usine de charbon est morte ?
RépondreSupprimerTrois ans après l'achat de deux grands actifs charbonniers qui ont généré 11 % du réseau australien total, le nouveau patron d'AGL a déclaré que personne n'achèterait de charbon. Publier la valeur de leurs propres actifs n'est généralement pas la façon dont les PDG attirent les investisseurs ou entament une négociation.
"Nous ne croyons pas que des capitaux privés investiront dans de nouvelles centrales à charbon", a déclaré le PDG Andrew Vesey aux analystes réunis. "Quelqu'un peut dire qu'il veut, mais cela ne veut pas dire qu'il le fera."
Voilà pour cette théorie. Personne ne veut du charbon, sauf pour les gens qui construisent 1600 nouvelles usines dans 62 pays. Trois entreprises ont déjà offert d'acheter Liddell. Alinta suggère 1 milliard de dollars:
Alinta Energy a annoncé une offre de 1 milliard de dollars pour prendre le contrôle de la centrale de Liddell, AGL faisant face à une pression politique croissante pour vendre l'ancienne centrale au charbon de NSW afin de prolonger sa durée de vie de sept ans.
Les excuses de AGL de ne pas accepter cette offre sont "créatives":
Mais AGL a résisté à la pression du bâtiment hier, disant qu'il comptait sur Liddell pour générer de l'électricité pour ses clients jusqu'en 2022. "Nous aurons besoin de son infrastructure pour nos plans de remplacement dans le futur. Nous n'avons reçu aucune offre pour Liddell ", a déclaré AGL. "AGL a reçu hier une proposition d'Alinta exprimant son intérêt à entamer des négociations pour acquérir la centrale de Liddell ... Si une offre officielle pour Liddell venait à être reçue, elle serait prise en considération afin de respecter nos obligations envers les clients et les actionnaires."
Les banquiers expliquent qu'AGL ne vendra pas Liddell parce que l'électricité sera moins chère:
Mais la recherche des analystes de JPMorgan hier a dit qu'il était peu probable que l'affaire se concrétise en raison d'un certain nombre de raisons de marché et de logistique.
La vente de la centrale à Alinta nuirait aux prix de gros qu'AGL peut exiger de l'énergie de ses autres actifs, selon les analystes, tout en aidant un concurrent déterminé à entamer la part de marché d'AGL. Sur le plan opérationnel, la centrale électrique de Bayswater située à proximité de Liddell et d'AGL est alimentée en charbon à partir d'un seul chargeur de charbon et fait l'objet d'un certain nombre de contrats qui devront être déroulés.
"L'extension (Liddell) aurait probablement un impact négatif sur les prix de gros, et donc sur la valeur du reste des actifs de production d'AGL; cela favoriserait la croissance d'un concurrent dans la vente au détail d'électricité; et une séparation de Bayswater serait compliquée avec les deux actifs intrinsèquement liés ", a déclaré JPMorgan. - Paul Garvey, L'Australien.
La baisse des prix de gros signifie "bonnes nouvelles pour les clients" et "mauvaises nouvelles pour les détaillants chers" - comme les propriétaires de générateurs renouvelables. Beaucoup reprochent à la privatisation d'un générateur d'électricité, «un atout national», mais le vrai crime était de nationaliser notre marché de l'électricité et les demandes du Grand gouvernement d'utiliser nos générateurs pour refroidir le climat.
Il y a une pression politique immense, mais AGL ne vendra pas:
RépondreSupprimer"AGL est sous une pression politique immense mais le gouvernement australien à ce stade ne semble pas avoir le pouvoir de forcer un changement, avec l'ACCC semblant indiquer qu'il est autorisé à fermer l'actif et AEMO indiquant si (post-Liddell d'AGL) plan est adopté le déficit sera couvert ", a déclaré Macquarie.
Voici un peu d'histoire et de contexte sur ce qui devient un sujet d'intérêt national majeur.
- voit tableau sur site -
Liddell - acheté pour rien - valeur nulle
En 2014, AGL a fait savoir aux investisseurs qu'elle avait acquis gratuitement le générateur Liddell de 2 000 MW du gouvernement de la Nouvelle-Galles du Sud et qu'il l'avait intégré à l'usine de Bayswater comme un jouet avec un repas McHappy.
- voir graphique sur site -
AGL, Achat Liddell, Bayswater, investisseur.
AGL Investor Présentation 2014
À l'époque, AGL évaluait Liddell comme un fournisseur d'électricité à très faible teneur en charbon, générant 20 $ / MWh. (Cela n'a pas changé en 2017. Voir page 6). Deux cents le kilowatt-heure ?
Lorsque des enchérisseurs bon marché sont perdus, l'enchère gagnante augmente
La présentation de l'investisseur AGL en 2014 a souligné que les deux anciennes centrales au charbon de NSW étaient parmi les fournisseurs d'électricité les moins chers sur le réseau national australien. SRMC signifie coût marginal à court terme. Si nous pouvons nous débarrasser d'un peu plus de ces fournisseurs de mégawatts moins chers, les prix des offres «gagnantes» continueront à monter cette courbe. Et en Australie, chaque soumissionnaire retenu obtient le prix demandé par le meilleur enchérisseur gagnant. Sur ce graphique ci-dessous, avec Liddell parti, chaque fois que la demande nationale atteint 25 000 MW au lieu de 27 000 MW, des enchères plus élevées vont gagner. C'est ce qui a provoqué l'escalade quand Hazelwood a fermé.
- voir graphique sur site -
Charbon à faible coût, 2014, AGL, Liddell.
Liddell est le troisième fournisseur "brun" de la gauche. * Non graphique, la plupart des centrales diesel coûtant plus de 350 $ / MWh
Voici comment ruiner une centrale électrique:
Dans les cas les plus graves, trois fois l'équipement de l'usine présentait des défaillances d'alimentation en huile qui ont entraîné l'arrêt brutal des turbines en environ 10 minutes par rapport à 40 minutes dans des conditions normales, ce qui a «détruit» les machines.
L'ingénieur a également noté comment Liddell a régulièrement au moins une de ses quatre unités hors service, et que la moitié des quatre unités étaient soudainement indisponibles le 10 février - le premier jour d'une vague de chaleur record NSW - en raison des fuites dans les tubes de la chaudière. Cette mauvaise performance était en dépit du remplacement de ses turbines il y a une dizaine d'années.
Un nouveau groupe en Australie s'est formé pour parler d'un certain sens et réclamer Hazelwood 2.0 et une extension de Liddell. Bon sur le forum de Monash. J'en parlerai bientôt et de l'incroyable fureur que leurs suggestions sensées ont soulevées.
RépondreSupprimerPropriété de la génération sur le réseau australien:
AGL est le vert "sur le dessus".
- voir graphique sur site -
AEMO Graph, propriété australienne.
AEMO: L'état du marché de l'énergie, 2017, page 44.
La montée des "gentailers" - acteurs majeurs intégrés verticalement
Nous n'avons même pas commencé à parler des problèmes d'avoir quelques gros joueurs contrôlant un marché. L'AEMO a ceci à dire au sujet de "l'intégration verticale" qui est passée de 15% de la génération nationale à 47% au cours des neuf dernières années:
.5.1 Intégration verticale
Alors que les gouvernements séparaient structurellement l'industrie de l'approvisionnement en énergie dans les années 1990, de nombreux détaillants se sont réintégrés plus tard avec des générateurs pour former des «gentailers» qui possèdent des portefeuilles à la fois dans la production et la vente au détail. Trois détaillants - AGL Energy, Origin Energy et EnergyAustralia - approvisionnent 70 % des clients de la distribution d'électricité au détail dans le NEM. Ces mêmes entités ont augmenté leur part de marché de 15 % en 2009 à 48 % en 2017. L'intégration verticale permet aux producteurs et aux détaillants de s'assurer en interne contre le risque de prix sur le marché de gros, réduisant ainsi leur besoin de ) les marchés. Mais une participation réduite sur les marchés de contrats réduit la liquidité sur ces marchés, ce qui constitue un obstacle potentiel à l'entrée et à l'expansion pour les producteurs et les détaillants qui ne sont pas intégrés verticalement. - Rapport AEMO sur l'état du marché 2017
* [PS: Les petits caractères dans le graphique au milieu "low cost NEM" note qu'il exclut les plantes avec des coûts de SMRC supérieurs à 350 $ / MWh qui sont Anagaston, Snuggery, Port Lincoln, Mt Stuart et Mackay (toutes les versions de diesel / pétrole / génération kero). Juste au cas où vous vous demanderiez. La sauvegarde diesel vient à un prix sauvage.]
http://joannenova.com.au/2018/04/in-a-fake-free-market-2000mw-1000mw-and-liddell-is-worth-more-destroyed-than-sold/#more-58307
Immigration en France, vers la fin d’un tabou ?
RépondreSupprimer18:51 06.04.2018
Maxime Perrotin
L’inculpation de Nicolas Dupont-Aignan pour un tweet dénonçant «l’invasion migratoire» suscite la polémique. Il est pourtant loin d’être le premier à subir les foudres de la justice dans ce domaine, mais les relaxes sont aussi légion et même des personnalités de gauche franchissent la «ligne rouge». La parole sur l’immigration se libère-t-elle ?
«On a un responsable politique de premier plan, candidat déclaré à l'élection présidentielle, qui reprend tranquillement, publiquement, à son compte une théorie complotiste et raciste née dans les tréfonds de l'extrême droite française au début de la décennie précédente»,
Les députés «prêts à se battre» contre une loi immigration «pas à la hauteur des enjeux»
Tels sont les propos- rapportés par l'AFP- non pas d'un militant antiraciste, mais d'un procureur de la République. C'est sur ce motif qu'il a requis le 04 avril une amende de 5.000 €, avec sursis, à l'encontre de Nicolas Dupont-Aigan, jugé devant la 17e chambre du tribunal correctionnel. Faisant ainsi allusion, de manière peu flatteuse, au concept du «Grand remplacement» de l'écrivain Renaud Camus, le procureur enchérit:
«Ne pas le condamner serait considérer qu'on peut ouvrir grand les vannes de la parole raciste décomplexée.»
La raison du courroux du Parquet de Paris ? Un tweet lâché, mi-janvier 2017, alors que la campagne présidentielle se dessine et où le leader de Debout la France (DLF) évoque une «invasion migratoire» en réaction à la parution des statistiques de l'immigration du Ministère de l'Intérieur, qui annonçaient que 227.550 titres de séjour avaient été délivrés en 2016. Un nombre, estimé, qu'il compare alors au solde démographique français pour la même année, à savoir 198.000, d'après les statistiques de l'Insee.
«C'était très surprenant de voir à quel point le Parquet ne s'est pas appuyé sur le tweet qui est mis en cause devant la juridiction, c'était très impressionnant de voir comment le Parquet a instrumentalisé la procédure à l'encontre de Nicolas Dupont Aignan»,
s'indigne Damien Lempereur, l'un des avocats —et Porte-parole official- de Nicolas Dupont-Aignan. «On a assisté à une séance surréaliste», déclare-t-il encore: «Nous avons assisté à un procès politique, le procureur a fait une diatribe politique à l'encontre de monsieur Nicolas Dupont-Aignan», évoquant une «logique de répression, d'interdiction de la parole» de l'autorité poursuivante.
«Si Nicolas Dupont-Aignan devait être condamné pour ce tweet, ce type de propos, alors ça veut dire qu'on ne peut plus rien dire dans notre pays. Cela veut dire que tous ceux qui veulent s'opposer à la politique migratoire du gouvernement seraient susceptibles d'être condamnés par la 17e chambre.»
Dans la foulée de ces déclarations qui émeuvent les belles âmes de gauche, la Ligue Internationale Contre le Racisme et l'Antisémitisme (LICRA) ne tarde pas non plus à réagir et à traîner l'homme politique devant les tribunaux.
Deux semaines plus tard, début février, à quelques jours d'une première comparution devant un tribunal pour «provocation à la haine ou à la discrimination», le député de l'Essonne ne cachait pas son amertume au micro du Grand rendez-vous d'Europe1, de CNews et Les Échos.
RépondreSupprimer«Vous vous rendez compte ? Un élu de la République, qui s'exprime sur des statistiques migratoires et qui ne fait que dire la vérité est traduit en Justice !»
Souligner des faits pour dénoncer des tendances, une posture qui en France ne met en rien à l'abri d'une condamnation. «Un journaliste a le droit de dire la réalité» déclarait en 2011 Olivier Pardo, avocat d'Éric Zemmour, lorsque celui-ci était poursuivi par SOS Racisme, la Licra, le Mrap et l'UEJF, pour diffamation et provocation à la discrimination. Le journaliste avait finalement été relaxé pour le premier chef d'inculpation, mais condamné pour le second. En 2015, dans une autre affaire, le Parquet de Paris ne lâchera pas et fera appel de la relaxe.
Fin 2017- là encore face à SOS Racisme, la Licra, le Mrap, l'UEJF et J'accuse- Eric Zemmour est condamné pour «provocation à la haine» pour avoir lâché à la télévision que «la plupart des trafiquants sont noirs et arabes, c'est comme ça, c'est un fait». Des propos qui remontent à 2010 et où il était de bon ton de fustiger les contrôles au faciès —le «racisme d'État»- après qu'une agence européenne se soit émue de leur proportion en France.
Pourtant, le polémiste avait reçu le soutien de Jean-Pierre Chevènement, ancien ministre socialiste de Lionel Jospin, qui adressera un courrier à la 17e chambre du tribunal correctionnel de Paris affirmant que plus de la moitié des infractions sont «imputables à des jeunes dont le patronyme est de consonance africaine ou maghrébine». Une personnalité de gauche qui n'avait fait l'objet, pour sa part, d'aucune poursuite, peut-être au vu de l'enceinte réduite dans laquelle il avait diffusé son argumentaire.
Cela n'avait pas été le cas de Robert Ménard, poursuivi pour provocation à la haine par des associations reconnues «d'utilité publique». En 2016, le maire de Béziers s'était retrouvé traîné devant la Justice par sept associations antiracistes, dont le MRAP, SOS Racisme, la Ligue des droits de l'homme ou encore la Maison des potes, pour un tweet et des déclarations sur LCI. Pourtant, comme Eric Zemmour avant lui, celui-ci fut relaxé, bien que dans le cas du journaliste ses confrères continuent à jouer sur les mots pour ne pas donner trop d'écho à cette décision de justice.
Néanmoins ces procédures, engagées par les plaintes déposées par des associations antiracistes et d'extrême gauche ou d'un ancien ministre socialistes, pourraient avoir un coût élevé pour les contribuables biterrois.
En face, journalistes et autres détracteurs du maire et du polémiste sur la question de l'immigration jouent les autruches et bottent en touche, brandissant le même argument totem: «le fichage ethnique et religieux est strictement interdit en France.» En somme, pas de données, pas de problème: comprenez «circulez, il n'y a rien à voir».
«Semeur de désordre»: pourquoi Paris manifeste-t-elle contre la loi asile-immigration ?
Autre cas d'école, l'interview donnée par Eric Zemmour au quotidien italien Corriere della Sera en 2014. Déterrée par Jean-Luc Mélenchon, celle-ci engendrera une polémique dans la presse hexagonale, valant au chroniqueur —présenté comme «radicalisé à l'extrême droite»-, d'être remercié d'iTélé. Rares, sont les médias accusateurs à avoir fait l'effort de se pencher sur les faits. Le procès qui s'ensuivit, reflet d'une polémique qui bat encore son plein dans l'hexagone, lui a donc valu une «rupture abusive» de contrat pour laquelle la chaîne —devenue CNews- fut condamnée deux ans plus tard.
RépondreSupprimerRécemment, une autre personnalité politique a créé la polémique dans la presse (et) à gauche, bien que l'on attende encore la plainte des associations antiracistes: Gérard Collomb, ministre de l'Intérieur et par conséquent observateur légitime sur la question de l'immigration. Un ministre qui aurait tenu des propos «alarmistes», «plus propres à enflammer les imaginations qu'à pacifier la discussion» quand déclarait devant les députés que certaines régions étaient «submergées par les flux de demandeurs d'asile.»
La «submersion», une idée qui «était jusqu'ici confinée à l'extrême droite, aux franges les plus radicales de la droite», juge Libération qui, revenant sur le «malaise Collomb», dépeint un ministre «sévère», «raide», rappelant toutefois que —oui- l'opinion française est favorable à «un traitement sévère de l'immigration».
Avec ces nouvelles affaires médiatico-juridicaires, la mise au pilori systématique de ceux qui ont le malheur d'aller à l'encontre de la doxa sur l'immigration atteint-elle ses limites ?
https://fr.sputniknews.com/international/201804061035834691-immigration-france/
SupprimerCertains ignorent même que la dictature est le contraire de Démocratie et qu'il n'y a qu'un seul pays au monde en Démocratie !! La Suisse
Journalistes et magistrats
RépondreSupprimerHenri Dumas
vendredi, 06 avril 2018 15:34
J’ai été élevé et j’ai vécu dans l’idée que les magistrats rendent la justice et que les journalistes traquent la vérité.
Force m’est de reconnaitre que j’ai été puis que je me suis lourdement trompé.
Mes premiers constats personnels en flagrance de falsification ont concerné les journalistes. D’une nature peu discrète, très tôt — vers 15 ans pour les compétitions de Kart — certains de mes actes ou de mes pensées ont eu à être rapportés par la presse – locale, je vous rassure – la divergence entre la réalité vécue et ce qui en était colporté m’a stupéfait.
J’ai rapidement réalisé que ces distorsions ne m’étaient pas exclusives que, c’est un fait acquis, la presse est infoutue de traiter objectivement et fidèlement un événement matériel ou intellectuel. D’ailleurs, toutes ces masses de mensonges ont généré une nouvelle profession : « les communicants », qui ne sont que des menteurs professionnels.
Concernant les magistrats, ce fut pour moi plus tardif. Je dirais même que les premières rencontres, alors que je n’étais pas encore classé dans une case de« trublion », furent relativement justes. Même s’il m’arriva alors de perdre, d’être condamné, je ne ressentais pas les partis pris iniques d’aujourd’hui. Avec le temps, l’injustice a pris le dessus, l’obligation de condamner contre toute logique est devenue le mantra des magistrats qui se croient au service du pouvoir ou de leurs convictions personnelles.
– « Voltaire, tu es bien loin, ils ont oublié ta lucidité, tes convictions »
Comment en est-on arrivé là ?
Je n’ai pas la prétention, en posant la question, d’être en mesure d’apporter la réponse. Je propose juste d’engager le débat en explicitant ma vision, fatalement partielle et peut-être erronée. Nous verrons…
Je poserai comme préalable que les hommes sont assez peu différents les uns des autres, que ce qui les différencie découle de la géographie et des structures qu’ils se donnent. Une synergie étant probable entre les deux.
Contrairement à l’idée faussement répandue, la structure sociétale n’est pas décidée par le peuple mais bien par l’élite au pouvoir.
On peut rêver que cette élite est mise en place par le peuple, volontairement ou involontairement. Rêvez…. démocratie ou pas, ce n’est jamais le cas.
Mais, en réalité, le vrai et le seul pouvoir du peuple, pour peu qu’il lui soit octroyé ou qu’il le prenne, est limité à la possibilité de se débarrasser d’une élite qui ne lui convient pas. Par la loi : le vote, ou par la force : la rue. Le pouvoir du peuple est le pouvoir du nombre, quoi de plus con ?
Mon théorème de base est que le système social est le fruit des élites, que donc la sélection des élites est le socle de tout.
C’est ici qu’aujourd’hui, en France, le bât blesse.
La compétence
RépondreSupprimerQuelque soit le type de société recherché, si l’on vise la réussite, la sélection de l’élite ne peut se faire qu’à partir de la compétence. Ce n’est pas le cas chez nous.
La grille hiérarchique qui commande la pyramide sociale est exclusivement basée sur les indications de l’Education Nationale.
Or l’Education Nationale ne détecte pas les compétences mais les connaissances. Ce n’est pas du tout la même chose.
Les connaissances sont théoriques, les compétences sont pratiques. Les unes s’apprennent à l’université, les autres dans le feu de l’action. Or, l’alliance du statut professionnel figé — aussi bien du salariat public ou privé que du patronat — et du « principe de Peter » favorise le classement théorique à partir des connaissances et obstrue volontairement l’émergence des compétences.
Le réseau
A partir du moment où la compétence est mise en échec, la porte est ouverte à la cooptation par faveur.
Naturellement se créent alors des réseaux autour de valeurs aussi diverses que la religion, les anciens combattants ou les boulistes, les utopies politiques, etc…
Le but de ces réseaux étant exclusivement de permettre à leurs membres de rejoindre l’élite pour organiser les conventions sociales – ou lois – au bénéfice du réseau d’appartenance, au mépris de toute efficacité globale.
Le réseau est la béquille qui pallie l’absence de compétence, qui prend pour excuse la connaissance référence apparente au dessus de tout soupçon.
La boucle est bouclée.
La compétence a disparu, complètement marginalisée, voire persécutée.
Journalistes et magistrats n’échappent pas à cette désorganisation sociologique.
Il n’y a pas de procès en sorcellerie à leur faire, pas de complot, pas de rancœur personnelle.
Leur carence n’est liée qu’à leur incompétence. Les uns ne comprennent pas ce qu’ils rapportent, les autres ne comprennent pas ce qu’ils jugent.
Cela est particulièrement visible à l’occasion des contrôles fiscaux, de la fameuse fraude fiscale, de leurs contentieux et communiqués. Tant qu’il en sera ainsi nous souffriront, les dégâts seront terribles.
Hélas, rien ne permet d’imaginer qu’un changement se profile à l’horizon.
C’est la négation de ce à quoi je croyais, de ce pourquoi j’ai vécu. Terrible constat.
Cordialement. H. Dumas
http://www.objectifeco.com/economie/politiques-economiques/liberalisme/journalistes-et-magistrats.html
Consommation d'énergie des trains TLM et TGV
RépondreSupprimerCOMPARAISONS DES BILANS ENERGETIQUES
La consommation énergétique de ces trains est assez faible. En effet, le TGV consomme 83 watts par personne et par kilomètre tandis qu’un train à lévitation magnétique consomme 47 watts par personne et par kilomètre.
De plus,contrairement aux trains actuels, les voies ne sont pas toutes électrifiées,seule la portion de voie où se situe le train sera électrifiée et cela permettra donc une plus grande économie sur les dépenses énergétique.
Pour ce qui est de la faible consommation d’un TLM, elle n'est pas trop étonnante puisqu'une fois que le train a atteint sa vitesse de croisière, il s'agit juste de compenser les frottements or, par définition, il n'y a pas de frottements avec le sol mais seulement un déplacement d'air.
EXEMPLE POUR UN TLM :
On peut estimer très grossièrement les pertes en imaginant un alignement de cubes d'air placés devant le train. Celui-ci doit effectuer un travail pour les soulever à hauteur du train pour se créer un passage. (Certes, le cube d'air est ensuite redescendu derrière le train mais, en première approche, on peut considérer que ce travail ne peut être récupéré). Connaissant le gabarit (largeur hauteur) de la section frontale du train et sa vitesse, et sachant que 1m³ d'air a une masse de 1.29 kg, on peut estimer le travail.
Supposons que la face avant du train a une largeur de 3m et une hauteur de 2m, elle présente une section frontale de 6 m². Supposons que le train roule à 360 km/h ou 100 m/s. Chaque seconde, il doit déplacer un volume de 6m²·100m = 600 m³ ou 774 kg
Cette masse doit être élevée à une hauteur de 2m pour laisser passer le train, ce qui représente un travail :
W = m·g·h = 774·9.81·2 = 15185 J
Comme ce travail est exécuté en une seconde, la puissance nécessaire est de 15 kW.
Comme le train a parcouru 100 m ou 0.1 km pendant ce temps, la puissance brute est de l'ordre de 150 kW/km.
Si la rame accepte 500 passagers la puissance spécifique tombe à 300 W/km/personne.
En jouant sur une bonne aérodynamique (qui permet précisément de récupérer le travail fourni), avec un coefficient de trainée Cx= 0,15, on arriverait à réduire la dépense à 0,15*300 = 45 kW/km/personne.
EXEMPLE POUR UN TGV :
RépondreSupprimerSupposons que le train avance à 360 Km/h(=100 m/s) et consomme donc 83 kW/km/personne.
En jouant sur une bonne aérodynamique (qui permet précisément de récupérer le travail fourni), avec un coefficient de trainée Cx= 0,15, on arriverait à réduire la dépense à 0,15*x = 83 kW/km/personne.
Donc x=83/0.15=553 W/Km/personne
donc, si la rame accepte 500 passagers la puissance spécifique est de 553 W/km/personne.
Sa puissance brute est de l’ordre de 276 KW/Km comme le train a parcouru 100 m ou 0.1 km en une seconde la puissance nécessaire est de 27.6KW
P(TGV)/P(TLM)=27.6/15=1.84
On remarque donc dans cette comparaison que le TGV consomme environs deux fois plus d’énergie que le TLM.
http://tpe-tlm-sfa-bam.e-monsite.com/pages/iii-impacts-et-comparaisons/b-l-aspect-eergetique.html
Chaque année, la SNCF consomme pour la traction de ses trains électriques l’équivalent de la production annuelle d’un réacteur nucléaire de 900 mégawatts.
RépondreSupprimerQuand on parle de centrale nucléaire (CNPE) dans le jargon d'initiés il faut savoir que 900MW ne correspond qu'à une tranche de centrale, qu'il s'agit de centrales de faible puissance car les plus grosses tranches sont plutôt de 1400MW (la moyenne est de 1300MW par tranche et qu'une centrale comporte en moyenne 4 tranches donc 4 fois la puissance unitaire).
Océanie, 'Tis For Thee: Le monde de "1984" se forme maintenant
RépondreSupprimerpar Tyler Durden
Ve, 04/06/2018 - 22:25
Auteur de Jeremiah Johnson via SHTFplan.com,
«Océanie» était une nation décrite dans «1984» de George Orwell comme étant composée de la Grande-Bretagne (appelée «Airstrip One») et des États-Unis. Il y avait deux autres superpuissances, à savoir Eurasia et Eastasia. D'autres terres riches en ressources ont été disputées, comme l'Afrique et supposément l'Amérique du Sud ... terres jamais détenues par aucun des trois super-états pour une période significative. Le «flux» dans les conquêtes était exactement ce que le MIC (Military Industrial Complex) de notre temps aurait qualifié de «nécessaire» pour justifier de grosses dépenses: la guerre comme objectif principal plutôt que comme événement exceptionnel.
Nous voyons un parallèle dans le monde d'aujourd'hui avec d'énormes budgets de défense et des déploiements de troupes gardant les contrats en mouvement et siphonnant une quantité considérable de revenus nationaux pour garder les machines de guerre patriotiques en mouvement ... indépendamment de chaque nation. La psychologie: maintenir la population agitée et sur une base de guerre continuelle, en utilisant une «menace» (réelle, créée ou imaginée) pour accomplir ceci.
Vous êtes témoin de l'alignement final de ces sphères d'influence qui sont presque identiques au roman qu'Orwell a écrit. Regardez la situation avec l'empoisonnement présumé russe d'un agent de renseignement et de sa fille en Grande-Bretagne. Les Etats-Unis ont fait preuve de "solidarité" avec la Grande-Bretagne en expulsant 60 diplomates russes et en fermant le consulat russe à Seattle, Washington. La Russie a riposté en ordonnant l'expulsion d'une quantité égale de personnel de l'ambassade américaine.
Pourtant, le fait intéressant est que les autres nations qui ont suivi dans la «croisade humanitaire» de l'empoisonnement présumé russe de l'ancien agent du FSB Skripal et sa fille ? L'empoisonnement peut avoir été fait par les Britanniques, pas par les Russes. Le Département d'Etat américain a fait plusieurs déclarations à l'effet que les Russes "ne sont pas d'accord avec nous ou partagent nos valeurs de liberté et de démocratie".
Vraiment, maintenant ... dans l'état de surveillance qui tire inexorablement à sa conclusion avec le pays perdant ses droits tout en étant surveillé dans chaque activité ... quelles "valeurs" avons-nous plus ?
Je ne caractérise pas l'ensemble de la population des États-Unis ... mais notre gouvernement, qui détient la plupart des «formes» sur lesquelles le pays a été fondé sans véritable leadership, ni politique, ni représentation du peuple américain. Je caractérise une grande partie de la population ... passant d'une émission de télé-réalité à la prochaine dose de propagande hollywoodienne et de changement de paradigme étiquetés comme «films» et seulement fidèles au pays tant que les documents (appelés «droits») circulent.
La formation des super-états ... chacun avec leurs sphères d'influence dans le roman ... cette formation a lieu maintenant. La Lettonie, la Lituanie, l'Estonie, la Pologne et la Roumanie ont expulsé les diplomates russes conformément aux actions des États-Unis. Toutes ces nations sont lourdement investies dans l'OTAN militairement, avec d'énormes quantités d'argent, de matériel et de troupes américains. La Pologne achète des systèmes américains de missiles et d'anti-missiles. La Roumanie a déjà une base de missiles américains.
RépondreSupprimerL'Ukraine a expulsé les diplomates russes. L'Ukraine est un État vassal des États-Unis et du FMI. La plupart des pays européens tels que les Pays-Bas (La Haye est là, allez-y), l'Allemagne, la France, la Grande-Bretagne, l'Espagne ... ont fait de même. La bataille en ce moment est de voir qui sera aligné avec l'hégémonie occidentale américano-britannique [Océanie] contre la Russie et ses alliés (comme l'Iran, la Syrie, etc.) [Eurasie] avec la Chine comme «banane supérieure» en Orient [ Asie de l'Est]. Les pays anglophones seront à la tête du conglomérat américano-britannique ... y compris le Canada et l'Australie ... les premiers ayant participé à l'expulsion.
C'est même plus profond que les distinctions géographiques et politiques parallèles à "1984" quand vous l'examinez plus avant. Peu à peu, à mesure que les États-Unis deviennent plus répressifs, plus contrôlants, avec un penchant «nationaliste» dans le cadre, les citoyens deviennent isolés. Après la Première Guerre mondiale, les États-Unis poursuivirent une politique isolationniste et la politique se reflétait dans la mentalité des citoyens. Cet isolement actuel est celui qui est forcé.
Oh, nous construisons un mur pour empêcher les extraterrestres illégaux ? Peut-être, mais regardez comme c'est tard dans le jeu. Regardez comment les incursions illégales ont eu lieu sans aucune véritable résistance depuis plus d'un siècle, sans contrôle et sans relâche. Pourquoi ? Satisfaire les demandes des sociétés américaines pour une main-d'œuvre bon marché qui pourrait ne pas figurer dans les livres ... et le gouvernement qui a fermé les yeux à cause des revenus imposables tirés des sociétés. Les taxes ont été payées et des pots-de-vin ont sans aucun doute été accordés à des responsables gouvernementaux qui ont réussi à détourner le regard face à 100 étrangers clandestins qui travaillaient dans les champs sous leurs yeux. Tout le monde a regardé ailleurs, les entreprises ont fait des profits, et tout le monde était heureux.
La principale raison de construire le mur ne sera pas d'empêcher les étrangers illégaux d'entrer aux États-Unis, mais de paraître empêcher les étrangers illégaux d'entrer. Ce sera la raison principale ... subtilement enveloppée au nom des intérêts sacrés des nations. sécurité "phrase que nous avons tous appris à connaître et à aimer. Toutes les constructions seront assujetties, bien sûr, à la fiscalité, aux pots-de-vin et aux contrats pour que les fonds des contribuables ne sortent plus de leurs poches et que les comptes d'épargne soient entre les mains des riches et des puissants. Il y a aussi une autre raison ... voulus et insidieux ils souhaitent le mur.
Un mur fonctionnera également dans la direction opposée: garder les contribuables-serfs.
Lentement mais sûrement, une politique d'isolement forcé est poursuivie, et plus encore: ceux qui voyagent suivront un programme gouvernemental dans leurs efforts et seront limités à ceux qui ont du capital et de la richesse. Nous le voyons déjà: les nouvelles lois (N'avez-vous pas aimé ça ? De nouvelles lois ?) Qui limitent ceux avec un certain montant dû dans les impôts, dans la pension alimentaire, ou quoi que ce soit ... les garder dans le pays. Et à propos de ça ? Les entreprises et les sociétés, et leurs employés ... avec le statut de «voyageur de confiance» ... essentiellement une carte de «sortie de prison». Confiance de continuer à payer les impôts et de se conformer à l'ordre social, politique et religieux existant ... d'être un "nark" au nom du gouvernement.
RépondreSupprimerPour être le "gars avec la montre" dans le film "Ils vivent", vendre aux étrangers.
Toutes vos communications sont surveillées: chaque e-mail, chaque appel téléphonique. Parlez à vos amis à Moscou de l'université, et vous arriverez sur une liste de surveillance. Parlez à n'importe qui à l'extérieur des États-Unis et c'est une garantie que vous serez enregistré et surveillé. Le nouveau «Cloud Act» qui a glissé subrepticement entre les cuisses de la facture de dépenses Omnibus de 1,3 trillion de dollars (vraiment ... 1,3 billion de dollars, pouvez-vous imaginer tous les pots-de-vin sur celui-là ?). La loi sur les nuages, qui donne l'impression d'être inoffensive ... donnant aux pays étrangers la capacité d'appliquer les directives du gouvernement américain «en coopération» ou «en partenariat» ... pour surveiller et surveiller les citoyens américains et contourner la Constitution américaine.
Marbury vs. Madison est éteinte. Allez-y, portez-les devant les tribunaux, protestez, et écrivez à votre membre du Congrès ou à votre Sénateur (n'agissant que pour vous identifier et vous marginaliser). Votre costume, vos protestations et vos lettres iront nulle part ... et finalement ils vous casseront ... et vous ira quelque part ... au milieu de nulle part ... indéfiniment (synonyme de pour toujours). La nécessité d'une infraction passible de vous arrêter est révolue, de même que le 4ème Amendement ... maintenant vous avez juste besoin d'être une "personne suspecte" et être placé "sous enquête".
Tout cela est conçu pour rendre les populations plus pauvres, les garder sous surveillance et les empêcher d'interagir les unes avec les autres comme auparavant. Limiter leur liberté de mouvement et donc limiter leur liberté. Cela se produit également dans les deux autres «sphères d'influence». La Chine a un état policier draconien où les caméras et les voyous surveillent et signalent chaque mouvement de la population. La Chine est le «modèle» (selon les termes de Kissinger et d'autres mondialistes-communistes). La police dans ce pays est en train de devenir comme en Chine, avec un programme capitaliste: Protéger et servir les personnes morales imposables, et opprimer le contribuable commun.
C'est l'état final souhaité par les créateurs de la gouvernance mondiale. Ils suivent les mots de Milton: «Mieux vaut régner en enfer que de servir au paradis». Ils auront trois sphères, comme dans le roman «1984», et garderont les flammes de la différence ethnique juste assez pour faire La guerre n'est pas une éventualité, mais un événement géré et contrôlable. La guerre se traduit par la production industrielle, l'utilisation de fournitures et de matériaux, et les largesses qui finissent par «boomerang» et se transforment en augmentations et bonus pour les politiciens (regardez le «vote» du Congrès augmente et les bonus dans le projet Omnibus tout en augmentant la «défense» budget).
RépondreSupprimerLa guerre permet des faveurs, des contrats et l'immunité pour les oligarques. Une machine de guerre autosuffisante qui maintient les trois sphères d'influence l'une contre l'autre ... tout en «gérant» les gens et les attachant à une boucle sans fin de consommation, de production, d'appauvrissement, de dette et toujours dirigée par la ferveur patriotique.
En fin de compte, le monde ne remarquera pas son asservissement, parce que les générations capables de pensée et de raison créatrices auront été remplacées par une masse d'humanité obstinée et obéissante, capable d'agir d'une manière prédéterminée par les dirigeants. Le monde de "1984" se forme aujourd'hui. Les goulags sont juste au coin de la rue. Ils auront des "occupants" dès que le moment sera venu. Pas sous la menace des armes. Les gens entreront dans les camps de leur propre chef, asservis aux appâts de droits et aux commodités matérielles. Le monde de "1984" a été écrit il y a des années, mais il est sur nous, maintenant, et avant que nous le sachions, nous serons dans le monde.
https://www.zerohedge.com/news/2018-04-05/oceania-tis-thee-world-1984-forming-now
(...) Oh, nous construisons un mur pour empêcher les extraterrestres illégaux ? Peut-être, mais regardez comme c'est tard dans le jeu. Regardez comment les incursions illégales ont eu lieu sans aucune véritable résistance depuis plus d'un siècle, sans contrôle et sans relâche. Pourquoi ? (...)
SupprimerPetit résumé de l'histoire du monde
lundi 3 novembre 2014
http://huemaurice5.blogspot.fr/2014/11/petit-resume-de-lhistoire-du-monde.html
---------------------
Les hommes de l'ombre
mardi 22 avril 2014
http://huemaurice5.blogspot.fr/2014/04/les-hommes-de-lombre.html
L'anneau de feu devient-il plus actif ?
RépondreSupprimerpar Tyler Durden
Ve, 04/06/2018 - 20:25
Rédigé par Dominic Faulder et Erwida Maulia via The Nikkei Asian Review,
Des éruptions récentes suscitent des appels pour de meilleures normes de construction et des plans d'évacuation en Asie du Sud-Est ...
Lorsque le mont Agung de Bali a commencé à gronder en septembre dernier, les autorités de l'île indonésienne - conscientes de la destruction causée par le volcan de 3 000 mètres en 1963 - ont commencé à avertir les résidents d'évacuer. Des secousses d'intensité variable se sont poursuivies jusqu'au 21 novembre, date à laquelle elle a finalement commencé à éclater, forçant jusqu'à 140 000 personnes à chercher refuge. Plus de quatre mois plus tard, il n'a toujours pas cessé.
Le 23 janvier, le mont Kusatsu-Shirane, à environ 150 km au nord-ouest de Tokyo, a stupéfié l'Agence météorologique japonaise lorsqu'elle est soudainement entrée en éruption à 2 km de l'une des 50 régions du pays constamment sous surveillance vidéo. Des débris tombés ont tué un membre de la Force d'autodéfense terrestre qui skiait à proximité et blessé cinq autres.
À peu près au même moment, le mont Mayon, aux Philippines, a commencé à cracher des cendres et de la lave, déplaçant plus de 56 000 personnes.
Puis, à la mi-février, le mont Sinabung à Sumatra, en Indonésie, a soufflé de manière spectaculaire, envoyant dans l'air des colonnes de vapeur et des cendres surchauffées. Les gens ont fui et les écoliers ont couru à la maison en pleurant.
L'éruption de Sinabung a été suivie à la fin du mois de février d'un tremblement de terre d'une magnitude de 7,5 en Papouasie-Nouvelle-Guinée, le pire depuis un siècle. Plus tôt dans le mois, un séisme de magnitude 6,4 a secoué le comté de Hualien à Taïwan, faisant basculer des bâtiments et faisant 17 morts.
Cette insistance sismique au Japon, aux Philippines et en Indonésie fait partie de la «ceinture de feu», la ceinture en forme de fer à cheval de l'océan Pacifique qui abrite environ les trois quarts des volcans les plus actifs au monde.
- voir carte sur site -
Pourtant, après ce que certains experts appellent un 20ème siècle relativement calme pour l'activité sismique, le 21 a vu une légère hausse dans les «grands» tremblements de terre. Et les 18 premières années de ce siècle ont vu environ 25 éruptions volcaniques significatives dans le monde, contre 65 dans tout le 20ème siècle.
Que l'activité sismique passe ou non à la vitesse supérieure, elle a déjà fait de nombreuses victimes en Asie au cours du siècle, produisant des tremblements de terre meurtriers en Indonésie en 2004 et au Japon en 2011, entre autres pays. Cela a eu lieu dans un contexte de croissance démographique et économique rapide en Asie du Sud-Est, où certains pays ont été lents à faire face à la menace de catastrophes naturelles. (Voir Asie cherche à améliorer son bilan en matière de préparation aux catastrophes)
Le professeur Yoshiyuki Tatsumi, du Centre d'exploration océanique de Kobe à l'Université de Kobe, a déclaré que l'activité volcanique récente en Asie était "juste le feu du feu comme il l'a toujours été dans l'histoire". La clé, a-t-il dit à la Nikkei Asian Review, est de s'assurer que les gouvernements et les scientifiques sont prêts pour les éruptions avant que les signes ne soient visibles. "Nous devons être conscients que nous vivons dans une région où l'activité volcanique est presque toujours là."
La récente éruption surprise au Japon est un rappel salutaire de l'imprévisibilité de ces événements. "Nous étudions rétrospectivement si nos capteurs détectaient de légers signes", a déclaré le professeur Yasuo Ogawa du Centre de recherche sur les fluides volcaniques de l'Institut de technologie de Tokyo. "Mais le fait est que nous n'avons pas été en mesure de le prévoir à l'avance cette fois."
RépondreSupprimerLe défi est de taille en Indonésie, où se trouvent 127 volcans - dont plus de la moitié doit être continuellement surveillée pour l'activité. "La vérité est que la chaîne des volcans des îles de la Sonde en Indonésie, de Sumatra à Java en passant par Bali et Timor, constitue la plus dangereuse des interfaces tectoniques du monde", écrivait le professeur Anthony Reid en octobre sur New Mandala, une université nationale australienne. site Internet.
Reid a noté que l'Indonésie avait un doux 20ème siècle en termes sismiques, et a averti que les choses pourraient changer. "Le XXIe siècle a déjà dépassé de loin le nombre de victimes du XXe siècle", a-t-il déclaré.
Le bilan de la mort massive se résume en grande partie à un événement. Déclenché par un tremblement de terre d'une magnitude de 9,2 sur le nord de Sumatra, le troisième plus grand de l'histoire, le tsunami de l'océan Indien en 2004 a été le plus meurtrier jamais enregistré. Affectant 14 pays entourant l'océan Indien, il a tué près de 240 000 personnes, dont plus de 70% dans la province indonésienne d'Aceh.
- voir carte sur site -
Sur les 300 volcans des Philippines, 24 sont «actifs» ou ont enregistré au moins une éruption au cours des 10 000 dernières années, a déclaré à Nikkei Renato Solidum, directeur de l'Institut philippin de volcanologie et de sismologie (Phivolcs). Phivolcs surveille également le mont Kanlaon dans le centre des Philippines et le mont Bulusan, à 70 km du mont Mayon. Des niveaux d'alerte plus bas leur ont été assignés, et aucune d'entre elles n'est considérée comme une menace imminente.
Le mont Mayon, un stratovolcan aux formes coniques emblématiques, est le volcan le plus actif des Philippines, ayant éclaté 60 fois depuis le 17ème siècle. Sa récente belligérance a déclenché des évacuations en 2009 et 2014. Le dernier niveau d'alerte a été abaissé début mars de 4 sur 5 à 2 possibles, mais une zone d'exclusion de 6 km reste en place.
Les volcans et les tremblements de terre sont des jumeaux sismiques, nés de l'écrasement naturel et du broyage des plaques tectoniques du monde, un processus intemporel sans rapport avec le réchauffement de la planète et le changement climatique. Le mauvais traitement de l'environnement par l'humanité n'entraînera pas l'éruption des volcans ou le déplacement de la terre, mais les événements sismiques ont de puissants impacts sur l'environnement.
Les tremblements de terre effondrent les bâtiments, détruisent les infrastructures et les aéronefs au sol. Ceux qui sont en mer peuvent générer des tsunamis lorsque les sous-dépôts de plaques déplacent de grandes quantités d'eau de mer et l'envoient au rivage à la vitesse d'un gros-porteur, ralentissant et augmentant au fur et à mesure qu'il arrive. Le séisme de magnitude 9,0 du nord du Japon et le tsunami qui a suivi ont fait près de 16 000 morts en mars 2011.
L'archipel indonésien est situé au milieu de quatre grandes plaques tectoniques - l'Eurasie, l'Indo-Australie, le Pacifique et les Philippines - ce qui en fait la région la plus sujette aux tremblements de terre au monde. Un point de rencontre de deux plaques - appelé un segment de mégacroissance - s'étend entre le détroit de la Sonde et la mer au sud de Java, près de Jakarta.
RépondreSupprimerParce que le segment n'a pas connu de tremblements de terre au cours des derniers siècles, certains s'inquiètent qu'un changement puissant est en cours qui pourrait affecter Jakarta.
"Nous appelons cela un fossé sismique", a déclaré à Nikkei Danny Hilman Natawidjaja, un géologue du tremblement de terre à l'Institut indonésien des sciences. "Cela signifie que le segment a le potentiel pour un séisme majeur, car une très grande quantité d'énergie peut avoir été accumulée." Natawidjaja pense qu'un tremblement de terre d'une magnitude de 8,5 ou plus est tout à fait possible, mais il n'y a aucun moyen de dire si cela se produira. "Cela peut se faire dans les prochaines années ou quelque part dans les prochaines décennies."
D'autres éruptions et tremblements de terre sont une certitude naturelle, mais les prédire est beaucoup plus difficile que de mesurer leur ampleur et leur impact après l'événement. La relative douceur du 20ème siècle contraste avec l'incroyable férocité de l'activité volcanique du siècle précédent.
Catastrophe mondiale
La première fois qu'un volcan a véritablement fait parler de lui, c'est bien connu: le 27 août 1883, précisément à 10 h 02, le «jour où le monde a explosé». L'éruption du Krakatoa dans le détroit de la Sonde, à l'ouest de Java, dans ce qui était alors les Indes orientales néerlandaises, lorsque Jakarta s'appelait Batavia, fut entendue à des milliers de kilomètres en Australie. Grâce à l'avènement des services de télégraphe sous-marin et de transmission de nouvelles, le désastre était également connu en temps réel dans toutes les capitales du monde moderne.
Les nouvelles de la catastrophe du Krakatoa de 1883 ont voyagé dans le monde entier en temps réel grâce à l'avènement des services télégraphiques et de transmission de nouvelles sous-marins. © Getty Images
Dans son livre "Krakatoa", l'auteur britannique Simon Winchester décrit cette apparition apocalyptique dans ce qui est aujourd'hui l'Indonésie comme le jour où "le phénomène moderne connu sous le nom de village global est né". Le Krakatoa n'était pas seulement le premier événement d'information partagé au monde, c'était aussi la dernière catastrophe environnementale véritablement mondiale de Mère Nature.
Elle a affecté le climat et la production alimentaire dans toutes les parties du monde, car la pollution volcanique de la haute atmosphère a provoqué un hivernage mondial qui a duré cinq ans. Le film hollywoodien de 1969 "Krakatoa: East of Java" a placé à tort les trois volcans effondrés impliqués. Un mémorial naturel de ces volcans aujourd'hui est Anak Krakatoa, ou «enfant de Krakatoa», qui est sorti de la mer en 1928, preuve d'une activité persistante.
Krakatoa était catastrophique. Parmi les 35 000 personnes tuées à l'époque, beaucoup ont été victimes des tsunamis qu'elles ont générés. La population des Indes orientales s'élevait alors à environ 34 millions d'habitants, soit environ 13% des 266 millions estimés aujourd'hui - un indice de l'impact possible d'un futur méga-événement.
RépondreSupprimerPersonne en vie aujourd'hui n'a l'expérience d'une éruption de l'ampleur du Krakatoa. Les grandes explosions du mont St. Helens aux États-Unis en 1980 et du mont Pinatubo aux Philippines en 1991, qui ont tué plus de 800 personnes, ont été plus modestes en comparaison.
- voir carte sur site -
Depuis 1982, les experts ont mesuré la puissance des volcans en utilisant l'indice d'explosivité volcanique logarithmique (VEI), qui varie de 0 à 8. Un volcan VEI 1, comme ceux trouvés sur la grande île la plus méridionale d'Hawaï, évacue constamment les coulées de lave. comparé à un VEK 6 comme Krakatoa, qui était 100 000 fois plus puissant. Le pinatubo, l'éruption la plus grave de la région au cours des 50 dernières années, a également obtenu un indice VEI 6, mais son éruption était considérablement moins puissante que celle de Krakatoa.
Malgré toute son infamie, le Krakatoa n'était pas la pire éruption de son siècle et de sa région. Quelques personnes âgées vivantes en 1883 auraient pu se souvenir de l'éruption, encore plus meurtrière, du mont Tambora en 1815 sur l'île de Sumbawa, qui a tué plus de 90 000 personnes immédiatement après. Tambora était un VEI 7, avec 10 fois l'explosivité du Krakatoa.
Il a émis un nuage toxique de cendre qui a refroidi et assombri le monde pendant des années, déclenchant la famine, la peste et les désordres civils. Il y a eu des émeutes de la faim en Suisse et des hivers effroyables dans la province chinoise du Yunnan. L'énorme volcan, qui se trouve dans la province occidentale de Nusa Tenggara en Indonésie, et ses répercussions ont été accusés d'une épidémie de choléra qui a tué encore plus de gens cinq ans plus tard à Java. L'éruption la plus puissante de l'histoire, son effet était incomparablement omniprésent. Même les teintes extraordinaires dans les cieux et les couchers de soleil peints par l'un des artistes les plus célèbres de Grande-Bretagne, J.M.W. Turner, lui sont attribués.
L'année suivante, en 1816, on se souvient de beaucoup de pays comme de l'année sans été. L'étendue des dégâts de Tambora est mieux enregistrée en Amérique du Nord, en Europe et en Chine qu'en Asie du Sud-Est en raison de records plus systématiques. Bien que Tambora ait été la plus grande éruption depuis des millénaires, les scientifiques ont pu déterminer, à partir de preuves telles que des résidus dans les calottes glaciaires, que le mont Samalas a également causé des ravages dans le monde en 1257, envoyant des volumes record de dioxyde de soufre et d'autres gaz nocifs. atmosphère. Samalas appartient au complexe volcanique du Mont Rinjani sur l'île indonésienne de Lombok.
Comme 'ouvrir un parapluie'
RépondreSupprimerLes volcans indonésiens sont surveillés par le Centre de Volcanologie et d'Atténuation des Risques Géologiques, ou PVMBG. Il conseille sur les évacuations en temps opportun que les habitants se lassent parfois d'observer. Lorsque le Mont Agung a éclaté en 1963, il a duré un an et a fait 1.500 morts tandis que le président Sukarno a réprimé les informations pour des raisons politiques. Les pertes cette fois ont été maintenues jusqu'à zéro.
Citant les conditions enregistrées de grands volcans comme le Mont Agung et le Mont Semeru dans l'est de Java, Surono, un ancien chef du PVMBG, pense que les chances d'une seconde Tambora sont très faibles et qu'il y aurait beaucoup de possibilités d'alerte avancée dans un tel cas. "Il n'y a pas de éruption volcanique sans donner de signes avant-coureurs", a déclaré Surono à Nikkei. "C'est comme de la pluie qui commence par de la bruine, ce qui vous donne l'occasion d'ouvrir un parapluie."
Au Japon, le professeur Tatsumi a trouvé une nouvelle raison de s'inquiéter. Dans un article publié en février, il a signalé l'existence d'un gigantesque dôme de lave dans un supervolcano japonais, la caldeira Kikai - une catégorie VEI 8 potentiellement 10 fois plus puissante que Tambora. Selon Tatsumi, la pression s'accumule à l'intérieur du dôme de lave offshore de 32 km de long qui a éclaté il y a environ 7 300 ans.
Tatsumi pense que les volcanologues ont très peu d'idée de ce à quoi s'attendre des plus grands volcans du monde, et d'autres ont fait remarquer à quel point ils peuvent s'améliorer rapidement. "J'imagine qu'il y aura des signes comme des tremblements, mais l'humanité n'a pas déterminé le mécanisme des éruptions de supervolcans, comment ils se produisent", a t-il dit. "S'il éclate, il peut tuer 90 millions de personnes dans le pire des cas". Il prédit des couches de cendres de 50 cm à Osaka et de 20 cm à Tokyo si le dôme Kikai souffle dessus.
Il y a une douzaine de supervolcans VEI 8 à travers le monde qui font irruption incroyablement rarement. Le grand-père de tous est Yosemite dans l'État américain du Wyoming, mais plus près de chez lui se cache le lac Toba dans le nord de Sumatra et le lac Taupo sur l'île du Nord de la Nouvelle-Zélande, deux étendues d'eau massives. Il y a aussi la caldeira Aira sur l'île principale de Kyushu, au sud du Japon.
Compte tenu de la rareté des éruptions supervolcano, la prédiction de Tatsumi pour Kikai n'est pas réconfortante: une chance de 1% au cours des 100 prochaines années. Lorsque le grand tremblement de terre de Hanshin-Awaji a dévasté Kobe en 1995, tuant plus de 6 400 personnes, la probabilité prédite pour un tel événement était de 1% en 30 ans. "Donc, 1% en 100 ans est en fait un mot de code pour" à tout moment ", a déclaré Tatsumi. D'autres débattent sur le fait que Yosemite, qui pourrait tuer des milliards dans le pire des cas, est attendu pour une explosion dans 50 000 ans - ou déjà en retard de 20 000 ans.
Pourtant, ce sont clairement les éruptions VEI 4-6 beaucoup plus fréquentes, avec leur capacité avérée à perturber la vie normale, qui constituent la plus grande menace, particulièrement dans un monde devenu si dépendant de l'aviation. Lorsque le mont Merapi, dans le centre de Java, le volcan le plus actif d'Indonésie, a fait irruption à la fin de 2010, il a tué plus de 350 personnes et forcé l'évacuation de quelque 410 000 autres personnes. Merapi est classé VEI 4, comparé au VEI 5 ??de Mount Agung en 1963.
RépondreSupprimerLes Philippines restent moins préoccupées par les volcans que par le "Big One" - le terme peu commun que les médias ont inventé pour décrire un éventuel tremblement de terre majeur affectant Metro Manila. La faille West Valley traverse la capitale de plus de 13 millions d'âmes.
Selon une étude menée en 2004 par Phivolcs, Metro Manila Development Authority et l'Agence japonaise de coopération internationale, la faille West Valley pourrait générer un séisme de magnitude 7,2. La faille se manifeste tous les quatre à six siècles, et la dernière a causé du chagrin dans les années 1600. "Peut-être qu'il peut bouger dans notre vie", a déclaré Solidum. "Tellement mieux si nous nous préparons."
Le président philippin Rodrigo Duterte a soulevé la question dans son discours sur l'état de la nation en juillet dernier. Deux semaines plus tôt, quatre personnes avaient péri dans un tremblement de magnitude 6,5 dans le centre des Philippines. "On nous a dit que ce n'était plus une question de" si "mais une question de "quand" ", a déclaré Duterte. "Nous devons agir de manière décisive et rapide car la menace est énorme, réelle et imminente".
https://www.zerohedge.com/news/2018-04-06/ring-fire-becoming-more-active
Un thérapeute explique ce qui se passe quand les gens tentent de quitter les medias psychiatriques
RépondreSupprimerpar Tyler Durden
Ve, 04/06/2018 - 17:45
Rédigé par Alex Pietrowksi via The Daily Sheeple,
Essayer de donner un coup de pied aux médicaments psychiatriques est l'un de ces problèmes rarement discutés avec l'entreprise psychiatrique moderne. Pour toutes les publicités télévisées informatives et élégantes et toutes les explications simplifiées par les médecins, quand quelqu'un décide de se débarrasser de ces médicaments, l'expérience peut être un cauchemar total.
En écrivant pour le New York Times en 2015, Diana Spechler a décrit son processus infernal dans un article intitulé 10 choses que je dirais à mon ancien (médicamenté). Comme elle le décrit, il y a très peu de soutien pour les gens qui souhaitent quitter les médicaments et revenir à se sentir comme eux-mêmes. Un de ses commentaires obtient à la complexité et à la folie d'essayer d'arrêter.
"Vous pourriez avoir besoin de diminuer plus progressivement que votre médecin le pense. Réduire un médicament à la fois, juste un ruban, toutes les deux semaines au maximum. Sois gentil. Par exemple, si vous avez l'intention de couper votre benzo un vendredi soir, mais que vous ressentez toujours des symptômes de sevrage lors de votre dernière coupe, ou que vous voyez les conséquences d'une nouvelle prise de vue, prenez votre dose habituelle. Vous pouvez toujours couper le lundi. Ou lundi prochain. Ou le prochain. Il vous faudra sept mois pour sortir de trois médicaments. C'est très bien. C'est bon. Tu as ça. À mi-cône, vous pouvez toujours revenir à votre dose précédente. Médicaments si c'est ce qui vous aide à passer une journée sans se cacher dans la salle de bain. Le but est de sentir O.K., pas de prouver que vous êtes O.K. sans médicaments. "[Source]
C'est la vérité pour la plupart des gens. Ils doivent simplement trouver une force intérieure et élaborer un plan pour eux-mêmes et faire de leur mieux.
La consultante Chaya Grossberg a offert des consultations non médicales aux personnes en train de se détacher des médicaments psychiatriques. Dans une récente pièce pour Mad in America, elle note 10 choses qu'elle voit souvent chez ses clients.
Il convient de noter en particulier que l'industrie pharmaceutique devrait être tenue responsable des conséquences financières et personnelles de l'implication des personnes dans les psychothérapies. Elle considère que c'est une question de consentement éclairé.
"Personne ne prend de médicaments psychiatriques avec le consentement éclairé. On ne donne à personne beaucoup d'options accessibles et sûres et d'honnêteté quant à l'origine de son diagnostic et à son caractère arbitraire, avec une bonne dose de critique sociale, et il choisit toujours de prendre des médicaments psychiatriques. Les gens les prennent en désespoir de cause. C'est un processus intrinsèquement manipulateur qui n'offre pas d'alternatives qui soient accessibles et socialement acceptables. »[Source]
En bref, elle décrit un processus typiquement long et ardu, où des forces hors de son contrôle prennent souvent le dessus. En cela, elle note que les médicaments psychiatriques ont tendance à amortir ou entraver la volonté de puissance, ce qui rend toujours plus difficile d'arrêter de fumer.
Il est toujours possible pour ceux avec les ponts apparemment empilés contre eux, et avoir une forte conviction peut faire la différence. «Là où il y a de la volonté, il y a un moyen.» Cela ne veut pas dire que si quelqu'un se débat, c'est de sa faute ou par manque de volonté. Malheureusement, les médicaments psychiatriques ont un moyen d'amortir la volonté. La volonté pour certains doit venir de quelque chose au-delà d'eux-mêmes, comme une vocation supérieure. Parfois, des choses comme le destin et le mystère sont en jeu et nous ne pouvons prétendre toujours comprendre ou évaluer scientifiquement pourquoi une personne peut s'en tirer et une autre ne peut pas. Nous avons tous des chemins de vie différents et nier le mystère ou essayer de tout définir en termes linéaires de cause à effet est un mécanisme de contrôle moderne similaire à la psychiatrie elle-même. Comme la vie elle-même, il existe des disparités et des choses injustes que nous ne pouvons pas toujours expliquer.
RépondreSupprimerCe qu'elle décrit est un processus à peu près exactement comme essayer d'arrêter n'importe quelle drogue de rue hardcore comme la cocaïne ou même l'héroïne. Certaines personnes ne peuvent tout simplement pas le faire seules, tandis que d'autres ont la chance d'expérimenter une sorte d'intervention divine en leur faveur.
"Pour ceux qui viennent de l'autre côté, il peut y avoir un sentiment de mort et de renaissance d'un tout nouveau moi." ~ Chaya Grossberg
https://www.zerohedge.com/news/2018-04-06/therapist-explains-what-happens-when-people-try-quit-psychiatric-meds
Boucler la boucle: comment les acrobaties de feedback du GIEC ont échoué
RépondreSupprimerAnthony Watts
6 avril 2018
Essai d'invité par Christopher Monckton de Brenchley
Cette série discute de l'erreur grave récemment découverte par la climatologie en n'ayant pas pris en compte la réponse importante à la température d'émission. Corrigez l'erreur et le réchauffement climatique sera petit, lent, inoffensif et bénéfique pour le net. La série continue d'attirer l'attention générale, non seulement ici mais ailleurs. Les ondulations se propagent.
Ma réponse à la pièce de Roy Spencer sur notre découverte à drroyspencer.com a attiré 1400 hits, et les trois morceaux précédents ont attiré respectivement 1000+, 350+ et 750+. Ailleurs, un blogueur sceptique notoirement irascible, interrogé par l'un de ses adeptes pour savoir s'il allait mener une discussion sur notre résultat, a répondu qu'il ne daignait pas discuter de quelque chose d'aussi simple. C'est simple. Comment pourrait-on penser que les processus de rétroaction dans le climat ne répondraient pas à la grande température d'émission préexistante au même degré qu'ils répondent à la légère augmentation de cette température causée par l'ajout de gaz à effet de serre sans condensation dans l'atmosphère ? C'est un point simple. Mais simple ne signifie pas nécessairement faux.
Le présent article développe les mathématiques, qui, sans être particulièrement complexes, ne sont ni simples ni intuitives. Comme pour les articles précédents, nous répondrons à certaines des questions soulevées dans les commentaires sur les articles précédents. Comme précédemment, nous accepterons ad interim, ad argumentum ou ad experimentum toute la climatologie officielle, sauf ce que nous pouvons prouver être incorrect.
Conduisons une expérience de Gedanken simple, en inversant le modèle de Lacis et al. (2010), qui a constaté que, 50 ans après avoir éliminé tous les gaz à effet de serre de l'atmosphère, le climat se serait stabilisé à un nouvel équilibre, donnant une boue slushball ou Earthbelt Earth avec albédo 0.418, impliquant une température d'émission de 243.3 K. Nous supposerons donc ad experimentum qu'en 1800 il n'y avait pas de gaz à effet de serre dans l'atmosphère. Pour ceux qui ne connaissent pas les modes logiques d'argumentation dans le discours scientifique, il n'est pas suggéré qu'il n'y avait pas vraiment de gaz à effet de serre en 1800.
Lacis a constaté que, seulement 20 ans après l'élimination des gaz à effet de serre sans condensation, la température moyenne à la surface du globe tomberait à 253 K. Au cours des 30 prochaines années, elle ne diminuerait que de 1 K plus, à 252 K ou 8,7 K température d'émission. Ainsi, sous réserve de la possibilité que la zone équatoriale finisse par geler, la température de surface du modèle de Lacis s'est stabilisée après seulement 50 ans.
Une question à laquelle peu d'opposants dans ces discussions ont répondu, et aucune n'a répondu de manière convaincante, est la suivante: Quelle était la source de cette température supplémentaire de 8,7 K, étant donné qu'il n'y avait pas de gaz à effet de serre sans condensation pour le conduire? Notre réponse est que Lacis reconnaissait implicitement l'existence d'une réaction de rétroaction à la température d'émission de 243,3 K elle-même - bien qu'elle soit à une valeur beaucoup trop petite pour être réaliste. Beaucoup trop petit car, comme indiqué dans l'article précédent, Lacis a attribué la différence de 45,1 K entre la température d'émission implicite de 243,3 K à l'albédo spécifié de 0,418 et la température moyenne mondiale actuelle de 288,4 K (ISCCP, 2018) comme suit: réponse à la température d'émission 252 - 243,3 = 8,7 K; réchauffement directement forcé par les gaz à effet de serre non condensants (288.4 - 252) / 4 = 9.1 K, et, en utilisant la réaction 0.75 de Lacis, réponse au réchauffement des gaz à effet de serre sans condensation 27.3 K: total 45.1 K. Cette répartition asymétrique de la différence entre la température d'émission et la température actuelle implique que la réponse de 8,7 K à la température d'émission n'est que de 3,6% de 243,3 K, alors que la réponse de 27,3 K au réchauffement de la serre est de démontrera formellement que cette répartition non plausible est erronée.
RépondreSupprimerIl sera utile de faire la distinction entre la position pré-industrielle en 1850 (la première année de la série HadCRUT, le premier ensemble de données sur la température mondiale) et l'ère industrielle. Nous supposerons que tout le réchauffement de la planète avant 1850 était naturel. Cette année-là, la température de surface était d'environ 0,8 K inférieure à aujourd'hui (HadCRUT4) à 287,6 K, soit 44,3 K au-dessus de la température d'émission. La répartition de Lacis sur les 44,3 K serait donc de 8,7 K, 8,9 K et 26,7 K.
Nous supposerons que Lacis avait raison de dire que le réchauffement directement forcé dû à l'ajout des gaz à effet de serre non-condensants dans l'air était de 8,9 K. L'exécution de l'expérience inverse de 1850 nous permet de déterminer la fraction de rétroaction implicite dans Lacis. modèle après correction pour permettre une rétroaction appropriée à la température d'émission. Avant de le faire, rappelons la liste officielle actuelle des réactions du GIEC qui concerne la dérivation des sensibilités à la fois transitoires et à l'équilibre:
- voir développé explicatif sur site -
La somme de commentaires haut de gamme choisie par le GIEC
La somme de rétroaction haut de gamme choisie par le GIEC implique des sensibilités de Charney comprises entre moins l'infini et l'infini par doublement du gaz carbonique. Pas un résultat particulièrement difficile après 30 ans et des centaines de milliards de dollars des contribuables. La somme de rétroaction moyenne du GIEC implique une sensibilité moyenne de seulement 2,2 K de Charney, et non les 3,0-3,5 K suggérés dans les rapports précédents du GIEC, ni les 3,3 K des ensembles de modèles de circulation générale CMIP3 et CMIP5. Il n'est donc pas surprenant qu'en 2013, pour la première fois, le GIEC n'ait fourni aucune estimation à mi-échelle de la sensibilité de Charney.
Aucun des retours listés par le GIEC ne dépend pour sa présence de la présence de gaz à effet de serre sans condensation. Par conséquent, dans notre monde de 1800 sans ces gaz, tous ces processus de rétroaction seraient présents. Pour induire une réponse de rétroaction étant donné la présence de tout processus de rétroaction, il suffit d'une température, c'est-à-dire de la température d'émission. Puisque les processus de rétroaction sont présents, une réponse est inévitable.
RépondreSupprimerLa température d'émission ne dépend que de trois quantités: l'insolation, l'albédo et l'émissivité. Peu d'erreurs se produisent si l'émissivité est, comme d'habitude, prise comme unité. Puis, à l'ensoleillement actuel de 1364,625 Watts par mètre carré et de l'albédo de Lacis de 0,418, la température d'émission est de [1364,625 (1 - 0,418) / d / (5,6704 x 10-8)] 0,25 = 243,3 K, conformément à l'équation fondamentale De même, à l'albédo actuel de 0,293, la température d'émission serait de 255,4 K, valeur largement citée dans la littérature sur le climat. sensibilité.
La raison pour laquelle la climatologie officielle n'a pas jusqu'ici accordé le poids (ou, en réalité, tout poids) à la réaction de rétroaction à la température d'émission est qu'elle utilise une forme dégénérée de l'équation du modèle de dimension zéro, ÄTeq = ÄTref / (1 - f ), où la sensibilité à l'équilibre ÄTeq, après avoir laissé une rétroaction, est égale au rapport de la sensibilité de référence ÄTref à (1 moins la fraction de rétroaction f). Le diagramme de boucle de réaction pour cette équation (ci-dessous) ne prévoit pas de température d'émission et, par conséquent, aucune réponse à ce sujet.
- voir développé explicatif sur site -
La boucle de rétroaction dans la forme officielle de la climatologie de l'équation du modèle zéro-dimensionnel ÄTeq = ÄTref / (1 - f)
Or, cette forme dégénérée de l'équation du modèle de dimension zéro est adéquate, sinon tout à fait idéale, pour dériver des sensibilités d'équilibre, à condition que l'on ait d'abord tenu compte de la réaction de rétroaction à la température d'émission. Pourtant, plusieurs commentateurs trouvent scandaleux que la climatologie officielle utilise une équation si simple pour diagnostiquer les sensibilités à l'équilibre que les modèles complexes de circulation générale pourraient prévoir. Quelques-uns ont essayé de nier qu'il est utilisé du tout. Cependant, Hansen (1984), Schlesinger (1985), GIEC (2007, p.631 fn.), Roe (2009), Bates (2016) ne sont que quelques-unes des autorités qui le citent.
Prouvons par étalonnage que la forme officielle de cette équation de diagnostic, lorsqu'elle est éclairée par des données officielles, donne l'intervalle officiel des sensibilités de Charney. GIEC (2013, Fig. 9.43) cite Vial et al. (2013) comme ayant diagnostiqué le forçage gaz carbonique clip_image006, le paramètre Planck clip_image008 et la somme de retour clip_image010 à partir d'augmentations brusques et quadruplées de la concentration de gaz carbonique dans 11 modèles CMIP5 via la méthode de régression linéaire de Gregory (2004). La fiole donne l'estimation de milieu de gamme des 11 modèles clip_image012 de la somme de rétroaction comme clip_image014 W m-2 K-1, impliquant clip_image016, et les limites clip_image018 de clip_image020 comme clip_image022, c'est-à-dire clip_image024.
Le forçage de gaz carbonique implicite clip_image006 [1], dans lequel des rétroactions rapides ont été incluses, était clip_image026 W m-2 comparé à clip_image028 W m-2 dans Andrews (2012). La sensibilité de référence clip_image030, prise par Vial sous le nom clip_image032, était clip_image034 au-dessus de l'estimation de milieu de gamme des modèles CMIP5 clip_image036. En utilisant ces valeurs, la version officielle de l'équation du modèle zéro-dimensionnel est bien calibrée, ce qui donne une sensibilité de Charney clip_image038 sur clip_image040, presque exactement coextensive avec plusieurs intervalles officiels publiés des modèles climatiques CMIP3 et CMIP5 (Tableau 2).
RépondreSupprimer- voir développé explicatif sur site -
De cet étalonnage réussi, si l'équation suppose que les rétroactions sont linéaires mais que certaines rétroactions sont non linéaires, elle répartit correctement les sensibilités d'équilibre entre le chauffage forcé et la réponse et, en particulier, reproduit l'intervalle des sensibilités de Charney projetées par les modèles CMIP5, qui tiennent compte des non-linéarités. L'étalonnage ne confirme pas que la valeur de clip_image044 des modèles pour la fraction de rétroaction ou leur intervalle de sensibilité de Charney est correcte. Il confirme cependant que, aux valeurs officielles de f, l'équation reproduit correctement les prédictions officielles et publiées de la sensibilité de Charney à partir des modèles de circulation générale complexes, même si aucune compensation n'a été faite pour la grande réponse de retour à la température d'émission. .
La climatologie officielle forme ses modèles en les ajustant jusqu'à reproduire le climat passé. Par conséquent, les modèles ont été entraînés pour expliquer la différence de 33 K entre la température d'émission de 255,4 K et la température de surface actuelle de 288,4 K. Ils ont supposé qu'un quart à un tiers du 33 K était réchauffé directement la présence de gaz à effet de serre non condensés d'origine naturelle et les deux tiers restants aux trois quarts étaient la réaction de rétroaction à ce réchauffement direct. Par conséquent, ils ont supposé que la fraction de rétroaction représentait les deux tiers à trois quarts de la sensibilité à l'équilibre, c'est-à-dire que f se situait quelque part entre 0,67 et 0,75.
La version officielle de l'équation du modèle zéro-dimensionnel peut être révisée pour remplacer les signaux d'entrée et de sortie du delta, indiquant de simples changements de température, avec des valeurs entières ou absolues. . Notez que la forme correcte de toute équation décrivant des occurrences naturelles (ou toute loi naturelle) doit être des valeurs absolues: l'utilisation de deltas n'est permise que si les équations delta sont correctement dérivées de l'équation absolue. En conséquence, ÄTeq = ÄTref / (1 - f) devrait être Teq = Tref / (1 - f). Le diagramme de boucle de rétroaction révisé est ci-dessous:
- voir développé explicatif sur site -
Après modification pour remplacer les entrées et les sorties du delta par des valeurs absolues, la forme de l'équation du modèle zéro-dimensionnel de la climatologie officielle devient
Teq = Tref / (1 - f)
Pour trouver f où les températures de référence et d'équilibre sont connues, cette équation révisée peut être réarrangée comme f = 1 - Tref / Teq. Dans l'expérience inversée de Lacis, la température de référence Tref avant la rétroaction est la somme de la température d'émission TE et de la température supplémentaire ÄTE = 8,9 K qui est le réchauffement direct de l'ajout des gaz à effet de serre naturels non condensés dans l'air. Ainsi, Tref = TE + ÄTE = 243,3 + 8,9 = 252,2 K. La température d'équilibre Teq = 287,6 K est simplement la température obtenue en 1850, après 50 ans de l'expérience Lacis inverse. Alors f = 1 - Tref / Teq = 1 - 252,2 / 287,6 = 0,123, seulement un cinquième à un sixième de la valeur de la climatologie officielle. La raison de la différence est que, contrairement à la climatologie officielle, nous prenons correctement en compte la réponse à la température des émissions.
RépondreSupprimerEnsuite, quelle part de la différence de 35,4 K entre Tref = 252,2 K et Teq = 287,6 K est la réponse à la température d'émission TE = 243,3 K, et quelle est la réponse du retour au réchauffement direct des gaz à effet de serre ÄTE = 8,9 K? Il suffit de prendre le produit de chaque valeur et f / (1 - f) = 0,14, donc: 243,3 x 0,14 = 34,1 K, et 8,9 x 0,14 = 1,3 K. Nous prouvons que c'est la répartition correcte en utilisant la forme standard standard de l'équation du modèle zéro-dimensionnel qui est universelle dans tous les systèmes dynamiques sauf le climat. Contrairement à la forme dégénérée climat-science, l'équation classique sépare explicitement le signal d'entrée (dans le climat, la température d'émission de 255,4 K) de toute amplification (comme le réchauffement de 8,9 K par l'ajout de gaz à effet de serre sans condensation dans l'atmosphère). .
L'équation du modèle zéro-dimensionnel principal est Teq = Tref ì / (1 - ìâ), où Tref est le signal d'entrée (ici, température d'émission); ì = 1 + ÄTref / Tref est le facteur de gain représentant toute amplification de Tref telle que celle provoquée par la présence des gaz à effet de serre naturels non condensants; â est la fraction de rétroaction; ìâ est le facteur de rétroaction, équivalent à f dans la version actuelle de l'équation; et Teq est la température d'équilibre au rééquilibrage du climat après que toutes les rétroactions de durée sous-décennale ont agi.
La boucle de rétroaction pour cette forme corrigée de l'équation du modèle de dimension zéro est la suivante:
- voir développé explicatif sur site -
Le diagramme de boucle de rétroaction pour l'équation standard du modèle zéro-dimensionnel
Teq = Tref ì / (1 - ìâ)
Un avantage de l'utilisation de cette forme grand public du modèle zéro-dimension est qu'il rend explicitement et séparément compte du signal d'entrée Tref et de toute amplification de celui-ci via le facteur de gain ì dans l'amplificateur, de sorte qu'il n'est plus possible non plus ignorer ou sous-évaluer soit Tref, soit la réaction de retour qui doit survenir tant que la fraction de rétroaction â est différente de zéro.
Il est démontré ci-dessous que la répartition de la différence de 35,4 K entre Tref = 252,2 K et Teq = 287,6 K en 1850, dérivée plus tôt dans notre expérience Gedanken, est en fait la répartition correcte. En commençant par l'équation grand public, nous introduisons le facteur de gain direct ou en boucle ouverte ì = 1 + ÄTref / Tref. Le facteur de rétroaction ìâ, le produit du facteur de gain direct ou en boucle ouverte ì et la fraction de rétroaction â, a précisément la forme que nous avons utilisée pour dériver la fraction de rétroaction f 1 - (243.3 + 8.9) / 287.6 = 0.123, confirmant que notre répartition était correcte.
- voir développé explicatif sur site -
RépondreSupprimerNotons au passage que dans la climatologie officielle f est à la fois la fraction de rétroaction et le facteur de rétroaction, puisque la climatologie officielle suppose implicitement (si paradoxalement) que le facteur de gain direct ou en boucle ouverte ì = 1. En pratique, cette hypothèse conduit la climatologie officielle en petite erreur, car l'amplification de la température d'émission entraînée par la présence des gaz à effet de serre sans condensation est une petite fraction de cette température.
Mais était-il raisonnable pour nous de supposer que la température de 287,6 K en 1850, avant que l'homme ait exercé une influence notable sur elle, était une température d'équilibre ? Hé bien oui. Nous savons que dans les 168 années écoulées depuis 1850, le monde ne s'est réchauffé que de 0,8 K environ, et la climatologie officielle attribue tout ce réchauffement à l'homme et non à la nature.
Était-il raisonnable pour nous de commencer avec la température d'émission implicite de Lacis de 243,3 K, reflétant leur albédo spécifié 0,418 sur une Terre de la Ceinture d'eau en l'absence de gaz à effet de serre sans condensation? Pourquoi ne pas commencer avec Pierrehumbert (2011), qui a dit qu'une boule de neige terrestre aurait un albédo de 0,6, impliquant une température d'émission de 221,5 K Faisons le calcul. La fraction de rétroaction f = ìâ serait alors 1 - (221,5 + 8,9) / 287,6 = 0,20.
Ainsi, d'une Terre boule de neige à 1850, la fraction de rétroaction moyenne est de 0,20; d'une Terre de la ceinture de l'eau à 1850, il est 0,12; et à l'albédo d'aujourd'hui 0,293, impliquant une température d'émission de 255,4 K, il est 1 - (255,4 + 8,9) / 287,6 = 0,08. C'est où nous sommes arrivés au début de cette série. Car vous remarquerez que, à mesure que les grandes calottes glaciaires fondent, la prédominance de la rétroaction de l'albédo de surface diminue inexorablement, après quoi la fraction de rétroaction diminue avec le temps.
Bien que le retour d'albédo de surface ait pu dominer jusqu'à maintenant, qu'en est-il du plus grand de tous les retours d'expérience aujourd'hui, le retour d'eau-vapeur ? La relation Clausius-Clapeyron implique que l'espace occupé par l'atmosphère peut (mais pas obligatoirement) porter de façon exponentielle plus de vapeur d'eau - un gaz à effet de serre - en se réchauffant. Wentz (2007) a constaté que la vapeur d'eau totale de la colonne devrait augmenter d'environ 7 % par Kelvin de réchauffement. Lacis (2010) a permis ce taux de croissance en disant que si l'on éliminait les gaz à effet de serre sans condensation de l'atmosphère actuelle et que la température chutait de 288 à 252 K de 36 K, il y aurait environ 10 % de atmosphère: ainsi, 100 % / 1,0736 = 9 %.
- voir développé explicatif sur site -
Humidité spécifique (g kg-1) aux altitudes-pression 300, 6000 et 1000 mb
Cependant, bien que l'augmentation de la vapeur d'eau de la colonne avec réchauffement soit donc considérée comme exponentielle, le forçage de rétroaction qui en résulte est approximativement logarithmique (tout comme le forçage direct du gaz carbonique est logarithmique). De plus, une fraction substantielle de la réponse de rétroaction résultante est compensée par une réduction de la rétroaction de taux de défaillance. En conséquence, la réponse de retour de vapeur d'eau / vitesse de déformation est approximativement linéaire.
Au cours de la période de l'enregistrement NOAA de l'humidité spécifique à trois altitudes de pression (ci-dessus), il y avait 0,8 K de réchauffement global. Par conséquent, Wentz s'attendait à une augmentation d'environ 5,5% de la vapeur d'eau. Effectivement, près de la surface, où se trouve la plus grande partie de la vapeur d'eau, il y avait une tendance de l'humidité spécifique d'environ cette valeur. Mais la réaction de retour de la vapeur d'eau à basse altitude est faible car l'air est déjà presque saturé.
RépondreSupprimerCependant, en altitude, où l'air est plus sec et le seul réchauffement significatif de la vapeur d'eau supplémentaire peut survenir, l'humidité spécifique est tombée, confirmant l'inexistence de la «hot spot» tropicale moyenne de la troposphère prédite. par augmentation de la vapeur d'eau. Dans l'ensemble, il y a donc peu de preuves suggérant que la réponse de la température à l'augmentation de la vapeur d'eau et la diminution correspondante du taux de déchéance sont non linéaires. Les autres retours ne sont pas assez importants pour faire la différence, même s'ils ne sont pas linéaires.
- voir développé explicatif sur site -
Notre méthode prédit un réchauffement de 0,78 K de 1850 à 2011, et 0,75 K a été observé
Un commentateur s'est plaint ici du paramètre de Planck (la quantité par laquelle un forçage radiatif en Watts par mètre carré est multiplié pour le convertir en un changement de température) n'est ni constant ni linéaire: à la place, dit-il, c'est la première dérivée d'un quatrième. relation de puissance, l'équation fondamentale du transfert radiatif. Ici, il faut savoir un peu de calcul. En adoptant l'hypothèse simplificatrice inoffensive habituelle de l'émissivité de l'unité constante, la dérivée première, c'est-à-dire la variation de la température de référence par variation unitaire de la densité de flux radiatif, est simplement Tref / (4Q0), qui est linéaire.
Une approximation simple pour intégrer les variations latitudinales dans le paramètre de Planck consiste à prendre le rapport de Schlesinger: le rapport de la température de surface TS à quatre fois la densité de flux Q0 = 241,2 Watts par mètre carré à l'altitude d'émission. Aux 255,4 K qui prévaudraient à la surface aujourd'hui sans gaz à effet de serre ni rétroaction, le paramètre de Planck serait de 255,4 / (4 x 241,2) = 0,26 Kelvin par Watt par mètre carré. À la température de surface actuelle de 288,4 K, le paramètre de Planck est de 288,4 / (4 x 241,2) = 0,30. Pas beaucoup de non-linéarité là.
Il est donc raisonnable de supposer que quelque chose comme la fraction de rétroaction moyenne 0,08 dérivée de l'expérience en ajoutant les gaz à effet de serre sans condensation dans l'atmosphère continuera à prévaloir. Si tel est le cas, le réchauffement à l'équilibre attendu à partir de 2,29 Watts par mètre carré de forçage anthropique net à l'ère industrielle jusqu'en 2011 (GIEC, 2013, Fig. SPM.5) sera de 2,29 / 3,2 / (1 - 0,08) = 0,78 K Effectivement, la tendance des régressions linéaires par les moindres carrés sur l'ensemble de données de la température moyenne de la surface mensuelle HadCRUT4 depuis 1850-2011 (ci-dessus) montre un réchauffement de 0,75 K au cours de la période.
Mais pourquoi les relevés de température des bathythermographes ARGO indiquent-ils un «déséquilibre énergétique radiatif» suggérant qu'il y a plus de réchauffement dans le pipeline mais que la vaste capacité thermique des océans l'a absorbée pour le moment ?
Une possibilité est que tout le réchauffement climatique depuis 1850 n'était pas anthropique. Supposons que le déséquilibre radiatif par rapport à 2010 était de 0,59 W m-2 (Smith 2015). Le réchauffement a ainsi rayonné de 2,29 - 0,59 = 1,70 W m-2 (74,2%) dans l'espace. Le réchauffement à l'équilibre résultant des forçages anthropiques et naturels jusqu'en 2011 pourrait ainsi s'avérer supérieur de 34,8% au réchauffement observé de 0,75 K en 2011, soit 1,0 K. Si 0,78 K de ce 1,0 K est anthropique, il y a rien pour éviter que les 0,22 K restants ne se soient produits naturellement en raison de la variabilité interne. Ce résultat est en fait compatible avec la proposition supposée de "consensus" selon laquelle plus de la moitié de tout le réchauffement récent est anthropique.
RépondreSupprimerL'implication de la sensibilité de Charney - c'est-à-dire, la sensibilité à l'équilibre à la concentration de gaz carbonique doublée - est directe. Les modèles trouvent que le forçage du gaz carbonique est de 3,5 Watts par mètre carré par doublement. En divisant ceci par 3.2 pour tenir compte de la valeur actuelle du paramètre Planck, on convertit cette valeur à une sensibilité de référence de 1,1 K. La sensibilité de Charney est alors de 1,1 / (1 - 0,08) = 1,2 K. Et c'est la ligne de fond. Pas l'estimation de milieu de gamme 3,3 K des modèles CMIP5. Pas le 11 K imaginé par Stern (2006). Juste 1,2 K par gaz carbonique doublant. Et ce n'est pas assez pour s'inquiéter.
Aucune des objections soulevées en réponse à nos résultats ne s'est avérée substantielle. Par exemple, Yahoo Answers (encore moins fiable que Wikipedia) a pesé dans la réponse délicieusement stupide suivante à la question "Est-ce que Monckton a trouvé une erreur fatale ?"
Ce qu'il fait est mis en avant l'argument absurde suivant -
1. Si je prends la température de 255,4 K de la terre sans gaz à effet de serre, et j'ajoute à l'augmentation de 8K avec les gaz à effet de serre, je reçois une température de 263,4 K.
2. Maintenant, ce que je vais dire, c'est dire que cette température totale (plutôt que seulement l'effet des gaz à effet de serre) conduit à une rétroaction. Et si j'utilise cette figure, je reçois un retour de 1 - (263.4 / 287.6) = 0.08.
Et le problème est ... comment la température de la planète (255,4 K) sans gaz à effet de serre peut-elle conduire à une réaction? Le retour est dû aux gaz eux-mêmes. Vous ne pouvez pas prétendre que le retour d'expérience et donc la température amplifiée due aux gaz à effet de serre est en réalité dû à la température de la planète sans les gaz à effet de serre! Ce qu'il a fait est pris la ligne de base sur laquelle l'augmentation et la rétroaction est basée, et ensuite encerclé pour utiliser la ligne de base comme source de l'augmentation et de la rétroaction.
Donc, j'ai peur que ce soit la merde totale ...
L'erreur faite par Yahoo Answers réside dans la fausse affirmation que "le retour est dû aux gaz eux-mêmes". Non: il faut distinguer les gaz à effet de serre condensés (un changement de la charge atmosphérique de la vapeur d'eau est un retour) et les gaz à effet de serre sans condensation tels que le gaz carbonique (presque tous les changements de concentration des gaz non condensants sont des forçages) ). Tous les processus de rétroaction énumérés dans le tableau 1 seraient présents même en l'absence de tout gaz à effet de serre sans condensation.
RépondreSupprimerUne autre objection est que peut-être la climatologie officielle tient pleinement compte de la réaction de retour à la température d'émission après tout. Cette objection peut être rapidement traitée. Voici la définition typiquement inspirée et obscurantiste d'une «rétroaction climatique» dans le GIEC (2013):
Retour d'information climatique Une interaction dans laquelle une perturbation d'une grandeur climatique provoque un changement dans une seconde, et le changement dans la seconde quantité conduit finalement à un changement supplémentaire dans la première. Un retour négatif est celui dans lequel la perturbation initiale est affaiblie par les changements qu'elle provoque; une réaction positive est celle dans laquelle la perturbation initiale est améliorée. Dans le présent rapport d'évaluation, on utilise souvent une définition un peu plus étroite dans laquelle la quantité de climat perturbée est la température moyenne à la surface du globe, qui à son tour entraîne des changements dans le bilan radiatif global. Dans les deux cas, la perturbation initiale peut être forcée de l'extérieur ou survenir dans le cadre d'une variabilité interne.
La définition du GIEC exclut donc explicitement toute possibilité de réaction à une température préexistante, telle que la température d'émission de 255,4 K qui prévaudrait à la surface en l'absence de gaz à effet de serre ou de rétroaction. C'est pour cette raison que Roy Spencer pensait que nous avions tort.
Notre point simple demeure: comment un processus de rétroaction inanimé peut-il distinguer l'émission d'entrée de la température de 255 K et celle de 9 K supplémentaire résultant de l'addition des gaz à effet de serre sans condensation au mélange atmosphérique ? Comment peut-il savoir qu'il devrait réagir moins à la première qu'à la seconde, ou (si la définition du GIEC est suivie) pas du tout à la première et extravagante à la seconde ? En fin de compte, malgré quelques vaillantes tentatives des vrais croyants pour compliquer les choses, notre point de vue est aussi simple - et dans notre soumission comme sans réponse - que cela.
https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/
UAH trouve une erreur de réchauffement dans les données satellitaires, abaisse la tendance de la température "hotspot tropical", contredit les modèles du GIEC
RépondreSupprimerAnthony Watts
6 avril 2018
De l'Université de l'Alabama, Huntsville par courriel du Dr John Christy.
Le satellite météorologique se déplace à travers le temps, l'espace et le réchauffement parasite pour contaminer les données
À la fin des années 1990, le satellite météorologique NOAA-14 a erré dans le temps et dans l'espace, modifiant apparemment le record du climat de la Terre.
Conçue pour une orbite synchronisée avec le soleil, l'orbite NOAA-14 d'un pôle à l'autre devait traverser l'équateur à 13h30. sur le côté ensoleillé du globe et à 13h30 du côté obscur, 14 fois par jour. L'un des instruments qu'il transportait était une unité de sondage à micro-ondes (MSU), qui observait le monde et recueillait des données sur les températures dans l'atmosphère terrestre et comment ces températures changeaient avec le temps.
Au moment où la NOAA-14 terminait sa vie utile en 2005, cependant, elle s'était égarée vers l'est depuis l'orbite prévue jusqu'à ce qu'elle traverse l'équateur non pas à 1h30 mais à environ 8h00. Cela a poussé son passage en début d'après-midi jusqu'à la nuit et ses mesures au milieu de la nuit jusqu'à l'aube.
- voir carte sur site -
Diagramme montrant l'orbite de la NOAA-14. Crédit: Université de l'Alabama Huntsville
Parce que les températures locales changent généralement entre 1h30 et 8h00, cela a introduit des changements de température parasites qui ont dû être calculés et retirés des ensembles de données de température à long terme qui utilisent des données provenant d'instruments satellitaires.
La dérive a également modifié l'orientation du satellite par rapport au soleil, de sorte que les rayons du soleil ne soient pas protégés des rayons du soleil de manière cohérente, les rayons du soleil atteignent des crevasses ouvertes et non protégées et d'autres endroits où une intense lumière solaire pourrait influencer les capteurs. Il a réchauffé le MSU, ce qui l'a amené à regarder la mi-troposphère de l'atmosphère (de la surface jusqu'à environ 40 000 pieds) comme étant très légèrement plus chaude qu'elle ne l'était réellement par rapport à son temps initial de 1h30.
Les scientifiques du Earth System Science Center (ESSC) de l'Université de l'Alabama à Huntsville (UAH) ont calculé la quantité de faux réchauffement NOAA-14 signalée par les satellites météorologiques qui sont restés plus près de chez eux que NOAA-14. être retiré d'un relevé de température atmosphérique mondiale à long terme recueilli par MSU sur des satellites depuis la mi-novembre 1978.
Les détails de cette recherche ont été publiés dans le International Journal of Remote Sensing, et sont disponibles en ligne à: https://www.tandfonline.com/doi/full/10.1080/01431161.2018.1444293
Le satellite itinérant est devenu un problème lorsque le Dr John Christy, directeur de l'ESSC de l'UAH et auteur principal de l'étude, et le Dr Roy Spencer, chercheur principal de l'ESSC, ont mis à jour et révisé les données satellitaires globales de UAH. (La version 6.0 a été complétée en 2016.) Alors qu'ils savaient que la NOAA-14 s'était éloignée de son chemin, un examen plus attentif a montré que le réchauffement signalé par l'USM sur la NOAA-14 était déséquilibré avec les données de température recueillies par d'autres satellites de la NOAA. Cela semble être particulièrement vrai dans la troposphère tropicale moyenne.
RépondreSupprimerNOAA-14 "dérive plus que tout autre vaisseau spatial utilisé dans cet ensemble de données", a déclaré Christy.
"Nous étions à la recherche de 39 ans d'une tendance de la température, et ce satellite parasite a affecté la tendance d'environ 0,05 degrés Celsius (environ 0,09 ° F) par décennie", a déclaré Christy. "Sur 39 ans, ce serait un réchauffement total d'environ 0,2° C, soit plus d'un tiers de degré Fahrenheit. Et ce problème s'est produit, presque entièrement, dans les années 1990 et au début des années 2000.
"Un élément important de preuve indiquant un problème avec le satellite NOAA-14 a été son réchauffement par rapport au nouveau satellite NOAA-15 qui est arrivé à la fin des années 1990", a déclaré Christy.
Pour mesurer l'ampleur du problème après la finalisation de l'ensemble de données satellite UAH, l'équipe ESSC a commencé avec un sous-ensemble de ballons météorologiques américains qui n'avaient pas changé d'instruments ou de logiciels pendant au moins la majeure partie de la période. Les ballons météorologiques constituent un outil utile pour comparer les données satellitaires, car elles recueillent toutes deux les températures de la surface à travers les couches profondes de l'atmosphère.
Lorsque les ballons américains ont montré moins de réchauffement que le MSU sur NOAA-14, Christy a élargi l'étude pour inclure un groupe de ballons météorologiques australiens qui n'avaient pas non plus changé d'instruments pendant la majeure partie du temps où NOAA-14 était en orbite.
"Cela nous a donné deux ensembles de données réputés qui sont largement séparés à travers la surface de la Terre", a déclaré Christy. "Ensuite, nous avons également examiné les données homogénéisées provenant de groupes indépendants qui corrigent les ensembles de données ballon."
Les données de la NOAA, de l'Université de Vienne et de l'Université de New South Wales ont été ajoutées aux données de trois autres groupes - le Centre européen pour les prévisions à moyen terme, le Japan Climate Research Group et la NASA - qui «réanalysent» les données météorologiques mondiales. pour les défauts et les problèmes.
UAH a même créé son propre jeu de données ballon homogénéisé à partir de données ballon brutes archivées par la NOAA, qui provenaient de 564 stations à travers le monde.
"Nous avons essayé de comprendre la situation en comparant le plus grand nombre possible d'ensembles de données individuels et indépendants", a déclaré Christy. "Nous savons qu'aucun ensemble de données n'est parfait, donc la comparaison avec diverses sources est un élément clé de l'analyse des données. Cela nous permet de nous concentrer sur les endroits les plus divergents. Nous avons trouvé la plus grande différence entre l'ensemble de données UAH par rapport à d'autres ensembles de données satellites - et même certains avec des ballons - a été trouvé dans les années 1990 et au début des années 2000, la période de NOAA-14. "
RépondreSupprimerEt NOAA-14 a montré plus de réchauffement que tous les ensembles de données ballon, ainsi que plus de réchauffement que NOAA-12 ou NOAA-15, dont chacun chevauchait NOAA-14 à un moment donné pendant son temps en service. Ils ont également comparé les données de température de la NOAA-15 aux données du satellite AQUA stabilisé par orbite de la NASA.
Lorsque l'équipe UAH, dirigée par Spencer, Christy et W. Daniel Braswell, a construit l'ensemble de données UAH Version 6.0 en 2016, ils ont fait deux choses qui ont limité l'influence de la dérive.
"D'abord, nous avons cessé d'utiliser NOAA-14 en 2001, quand il avait dérivé à 17 heures", a déclaré Christy. "À notre avis, c'était juste trop de dérive pour avoir confiance qu'une correction précise pourrait être trouvée."
Ils ont également appliqué un algorithme qui minimisait les différences entre les satellites, éliminant en grande partie la dérive de la NOAA-14 par rapport aux autres satellites.
Cela s'est traduit par une tendance à long terme du réchauffement de la troposphère moyenne dans les tropiques d'environ 0,082 ° C (environ 0,15 ° F) entre la fin de 1978 et 2016. Comparativement à la tendance de +0,10 ° C (± 0,03 ° C) sources qui n'étaient pas exclusivement satellitaires.
La façon dont l'UAH a construit son ensemble de données et pris en compte ces problèmes est unique parmi les quatre grands ensembles de données sur la température des satellites. Les trois autres ensembles de données comprennent toujours toutes les données de la NOAA-14 et montrent des tendances au réchauffement supérieures à la tendance indiquée dans l'ensemble de données de l'UAH.
D'autres séries de données sur les températures uniquement par satellite signalent des tendances de réchauffement de la troposphère tropicale moyenne allant de +0,13° à +0,17° C par décennie.
"Ne s'en rendant pas compte à l'époque, les méthodes que nous avons utilisées pour construire l'ensemble de données le plus récent semblent avoir été confrontées à une divergence qui est apparue à travers cette étude d'inter-comparaison", a déclaré Christy.
Note: Il ne s'agit pas des données de la troposphère inférieure ou de la tendance au réchauffement à long terme rapportées chaque mois depuis plus de 27 ans dans le Rapport mondial sur la température de l'UAH. La basse troposphère s'étend de la surface de la Terre jusqu'à une altitude d'environ huit kilomètres (plus de 26 000 pieds).
Comme la plupart des satellites en orbite basse tendent à s'éloigner des orbites voulues, les nouveaux satellites météorologiques à orbite polaire de la NOAA, dont le lancement est prévu dans les années à venir, apporteront le carburant supplémentaire nécessaire pour rester près de chez eux.
RépondreSupprimer###
Le document est entièrement libre d'accès et disponible ici: https://www.tandfonline.com/doi/full/10.1080/01431161.2018.1444293
Examen des températures atmosphériques globales dans l'espace utilisées dans la recherche sur le climat
John R. Christy, Roy W. Spencer, William D. Braswell et Robert Junod
ABSTRAIT
Le Groupe d'experts intergouvernemental sur l'évaluation du changement climatique 5 (GI5 AR5, 2013) a discuté des températures atmosphériques massives en tant qu'indicateurs de la variabilité et du changement climatiques. Nous examinons quatre ensembles de données satellitaires générant des températures troposphériques massives, basés sur des unités de sondage à micro-ondes (MSU), toutes mises à jour depuis le GI5 AR5. Tous les jeux de données produisent des corrélations élevées des anomalies par rapport aux observations indépendantes des radiosondes (ballons), mais diffèrent quelque peu de la métrique la plus intéressante, la tendance linéaire commençant en 1979. La tendance est un indicateur de la réponse du système climatique aux concentrations de gaz à effet de serre et d'autres forçages, et est donc essentiel à la compréhension du climat. Les résultats du satellite indiquent une gamme de tendances quasi-globales (+0,07° à + 0,13 ° C décade-1) et tropicales (+0,08° à + 0,17 ° C décade-1) (1979-2016), et des suggestions sont présentées pour expliquer ces différences. Nous montrons que les MSU des satellites de la National Oceanic and Atmospheric Administration (NOAA-12 et -14, 1990-2001 +) contiennent un réchauffement parasite, particulièrement visible dans trois des quatre séries de données satellitaires.
Les comparaisons avec des jeux de données de radiosondes ajustés indépendamment pour les inhomogénéités et les réanalyses suggèrent que la tendance tropicale réelle (20 ° S-20 ° N) est de +0.10° ± 0.03 ° C décennie-1. Ce résultat tropical est inférieur d'un facteur deux à la tendance projetée par la moyenne des simulations du modèle climatique du GIEC pour cette même période (+ 0,27 ° C décade-1).
Du papier, voici la conclusion principale:
Un résultat clé est qu'il existe des preuves substantielles montrant que les données traitées des NOAA-12 et -14 (fonctionnant dans les années 1990) ont été affectées par le réchauffement parasite qui a affecté les quatre ensembles de données, UAH étant le moins affecté en raison de son processus de fusion unique.
RSS, NOAA et UW montrent beaucoup plus de réchauffement dans cette période que UAH et plus que les US VIZ et les radiosondes australiennes pour la période où l'instrumentation de radiosondage n'a pas changé. De plus, la même divergence a été trouvée par rapport au composite de toutes les radiosondes de la base de données IGRA, à la fois globale et à basse latitude. Bien qu'ils ne soient pas définitifs, les données appuient l'hypothèse selon laquelle les données satellitaires traitées des NOAA-12 et -14 sont caractérisées par un réchauffement parasite, introduisant ainsi des tendances faussement positives dans les enregistrements satellites. Des comparaisons avec d'autres ensembles de données construits indépendamment (radiosonde et réanalyses) soutiennent cette hypothèse (Figure 10).
RépondreSupprimer- voir carte sur site -
Figure 10. Amplitude de la différence relative entre deux périodes pour les jeux de données satellite respectifs (barres colorées) et les jeux de données de radiosondes respectifs (valeur positive indique que le satellite a été réchauffé plus que les données de radiosondage entre périodes définies).
Compte tenu de ce résultat, nous estimons que la tendance globale des TMT est de +0.10° ± 0.03 ° C décennie-1. Le taux de réchauffement observé depuis 1979 pour la couche de TMT atmosphérique tropical, que nous calculons également comme étant de +0.10° ± 0.03 ° C décennie-1, est significativement inférieur à la moyenne de celle générée par les simulations du modèle climatique du GIEC AR5. Comme les tendances du modèle sont en moyenne très significativement plus positives et que leur caractéristique la plus chaude apparaît dans la région de dégagement de chaleur latente, on pourrait supposer qu'une représentation erronée de la physique du modèle hydrologique tropical (c.-à-d. vapeur d'eau, physique des précipitations et rétroaction des nuages) est un candidat probable.
Notez que ceci concerne le "hotspot tropical" des modèles, et est une tendance beaucoup plus faible que celle montrée dans la figure 1 du papier, montré ci-dessous, qui a des valeurs de 0,4 à 0,6 ° C par décennie comparé au résultat de Christy de 0,10 ° C par décennie.
- voir carte sur site -
Figure 1. Coupe transversale Latitude - Altitude des tendances de la température sur 38 ans (° C décennie-1) tirée du modèle 3 du modèle climatique canadien. La section troposphérique tropicale se trouve dans la zone décrite.
NOTE: la première version de ce message comportait une erreur dans le titre, et il manquait le graphique de la figure 1 ci-dessus. Cela est arrivé en raison d'une erreur de versioning de ma part. Il a été corrigé ainsi que le Tweet original supprimé et renvoyé.
https://wattsupwiththat.com/2018/04/06/uah-finds-a-warming-error-in-satellite-data-lowers-global-temperature-trend-constradicts-ipcc-models/
Des records de froid d'avril vont frapper le nord-est des États-Unis ce week-end : de la neige de Washington à Boston
RépondreSupprimerChris Sommerfeldt - NY Daily News
Sott.net
mer., 04 avr. 2018 15:40 UTC
Une tempête hivernale exceptionnellement froide se dirige vers New York - encore une fois.
Les rêves d'un ciel dégagé et d'un temps doux devront attendre, car les prévisionnistes ont prédit mercredi qu'une tempête record dans l'Arctique se dirige vers la côte Est cette fin de semaine.
"Le météorologue Michael Palmer, météorologue de la Weather Company, a tweetté : "Une flambée arctique ridicule à la fin de la saison arctique vendredi/samedi".
Les températures dans la ville devraient chuter jusqu'à 12 degrés C en dessous de la normale et un mélange de pluie et de neige fondante commencera probablement à tomber vendredi et se poursuivra jusqu'à samedi, selon le Service météorologique national.
Le mauvais temps arrive moins d'une semaine après que 8 cm de neige ait recouvert la ville, bloquant les vols et retardant le match d'ouverture des Yankees.
Cependant, les New-Yorkais peuvent se considérer chanceux.
Le temps le plus rude devrait frapper le nord et le centre des États-Unis, avec des températures inférieures de 16 degrés C à la normale.
Minneapolis devrait connaître la journée d'avril la plus froide jamais enregistrée vendredi, avec un maximum de seulement -6° C.
Le souffle de l'Arctique sera assez froid pour déverser de la neige de Washington à Boston, selon les prévisions. Malgré le froid inhabituel de la saison, les températures dans l'hémisphère nord en général devraient être beaucoup plus chaudes que la normale, ce qui indique que ce front froid n'annule en rien le réchauffement global de la planète.
Traduction Sott. Source.
Commentaire : Les déferlantes de l'Arctique, les courants jets qui se séparent, les vortex polaires - combien de nouveaux termes doivent être inventés avant que les prévisionnistes réalisent que notre temps change radicalement, qu'il fait de plus en plus froid, que les saisons sont beaucoup plus volatiles et erratiques, et que le phénomène est mondial, ce qui prouve que nous entrons dans une ère glaciaire.
https://fr.sott.net/article/32170-Des-records-de-froid-d-avril-vont-frapper-le-nord-est-des-Etats-Unis-ce-week-end-de-la-neige-de-Washington-a-Boston
https://www.ventusky.com
Supprimerhttps://huemaurice5.blogspot.fr/2018/01/la-terre-est-une-planete-froide.html