#DataGate ! Le tout premier audit des données de température globale révèle des îles tropicales en train de geler, des villes en ébullition et des bateaux
October 7th, 2018
A quoi pensaient-ils ?
Le destin de la planète est en jeu, mais l'ensemble des données de température clés utilisées par les modèles de climat contient plus de 70 types de problèmes différents. Des milliards de dollars ont été dépensés à cause des prévisions basées sur ces données - et pourtant, même les contrôles de contrôle de la qualité les plus élémentaires pour bébés n'ont pas encore été effectués.
Grâce au Dr John McLean, nous voyons comment les demandes du GIEC pour de l'argent reposent sur des données fantaisistes, des champs vides, des temps Fahrenheit enregistrés en Celsius, des erreurs de longitude et de latitude, des ajustements brutaux et même des fautes d'orthographe.
Pourquoi. Pourquoi. Pourquoi cela n’at-il pas été fait il y a des années ?
Cela casse la façade. Comment les personnes soucieuses du climat peuvent-elles être aussi bâclées et amateurs avec les données ?
Absurdité partout dans les données du Hadley Met Center
Il existe des cas d'îles tropicales enregistrant une moyenne mensuelle de zéro degré - il s'agit de la moyenne des hauts et des bas quotidiens du mois. Un site en Colombie a enregistré trois mois à plus de 80 degrés C. C’est si incroyablement chaud que même les plus petits d'entre eux étaient probablement plus chauds que le jour le plus chaud de la planète. Dans certains cas, les bateaux sur la terre ferme ont apparemment enregistré des températures océaniques allant jusqu'à 100 km à l'intérieur des terres. Une place en Roumanie a passé un mois entier avec une moyenne de moins 45 degrés. La seule explication qui puisse avoir un sens est que les températures en degrés Fahrenheit ont été confondues avec Celsius et que, pendant les soixante-dix années à venir au CRU, personne n’a remarqué.
Le Dr McLean a vérifié les données globales de HadCrut4 à partir de 1850 pour sa thèse de doctorat, puis l'a poursuivie jusqu'à ce qu'elle soit complète:
«Je suis consterné de constater que rien n’a été fait pour supprimer les valeurs absurdes… toute l’approche de la création du jeu de données est imprudente et amateur, à la hauteur du niveau d’un étudiant universitaire de première année.» - John McLean
Son supérieur hiérarchique était Peter Ridd, réputé limogé pour avoir déclaré que «la science n’était ni vérifiée, ni testée, ni reproduite» et pour avoir laissé entendre que nous ne pourrions peut-être pas faire confiance à nos institutions.
Les données sont incroyablement effrontées
L'équipe du Hadley Met Center n'a même pas analysé ces données avec un outil aussi sérieux qu'un correcteur orthographique.
Pendant deux ans, la température totale de l'hémisphère sud a été estimée à partir d'un seul site terrestre en Indonésie et de certaines données relatives aux navires. Nous n’avons pas eu une couverture mondiale de 50 % avant 1906. Nous n’avons pas toujours eu une couverture de 50 % dans l’hémisphère Sud jusqu’en 1950 environ.
Les conclusions de McLean montrent qu’il n’existe pratiquement aucun contrôle de la qualité de ces données cruciales. L'équipe du Hadley Met Center n'a même pas analysé ces données avec un outil aussi sérieux qu'un correcteur orthographique. Les pays comprennent «Venezuela», «Hawaai» et la «République de K» (également connue sous le nom de Corée du Sud). Un pays est «inconnu» alors que d'autres ne sont même pas des pays - comme «l'Alaska».
La faute réelle des instituts modernes n'est pas tant le manque de données historiques, mais la façon dont ils "vendent" les tendances et les enregistrements comme s'ils étaient hautement certains et significatifs.
- voir graphique sur site -
HadCrut4, Températures de l'hémisphère sud, graphique, 1850-2018. HadCrut4, Températures de l'hémisphère sud, 1850-2018.
Il y a des problèmes systématiques et de grande portée Le jeu de données HadCRUT4 est une production conjointe du Hadley Centre du Met Office britannique et de l’unité de recherche sur le climat de l’Université d’East Anglia.
Les données CRU couvrent 10 295 stations, mais 2 693 - plus du quart - ne répondent pas aux critères d’inclusion décrits dans Jones et al 2012, qui sont considérés comme la meilleure description de ce qui devrait ou ne devrait pas être inclus.
Il est impossible de savoir exactement quels sites sont inclus dans l’analyse finale de la température et si les enregistrements d’un site ont été ajustés. (Si seulement nous pouvions faire nos déclarations de revenus comme ça?)
Les sous-parties des jeux de données se contredisent. L’ensemble terrestre et maritime devrait se combiner pour devenir l’ensemble mondial, mais ils ne correspondent pas toujours. Lequel a raison ?
«Il semble qu'aucune des deux organisations n'ait correctement vérifié les données de température de la terre ou de la mer avant de les utiliser dans le jeu de données HadCRUT4. Si cela avait été vérifié, le CRU aurait peut-être interrogé les erreurs les plus évidentes dans les données fournies par différents pays. Le Centre Hadley aurait peut-être également constaté certaines incohérences dans les données de température de surface de la mer, ainsi que des erreurs qu'il aurait créées en copiant les données à partir des journaux de bord manuscrits de certains navires de la Royal Navy. "
- John McLean
Refroidir les cent dernières années ?
Probablement la pire erreur systématique, le passé est réécrit pour tenter de corriger les déplacements du site. Bien que certaines corrections soient nécessaires, ces ajustements sont brutaux. Les thermomètres doivent être déplacés, mais les corrections ne nécessitent pas de traiter les anciens sites comme s’ils étaient toujours entourés de béton et de briques.
Les nouveaux sites originaux sont généralement placés dans de bons sites ouverts. Au fur et à mesure que le site "vieillit", des bâtiments et des routes apparaissent à proximité, et parfois des climatiseurs, réchauffent artificiellement le site. Donc, un thermomètre de remplacement est ouvert dans un endroit ouvert à proximité. Habituellement, chaque centre météorologique national distinct compare les deux sites pendant un certain temps et calcule la différence de température entre eux. Ensuite, ils ajustent les lectures des anciens emplacements pour les faire correspondre aux nouveaux. Le problème est que les algorithmes séparent également les anciennes lectures originales au cours des décennies, même les lectures qui ont probablement été prises lorsque le site n'était qu'un enclos. De cette façon, le passé historique est réécrit pour être plus froid qu'il ne l'était réellement, ce qui rend le réchauffement récent plus rapide qu'il ne l'était réellement. Des milliers d'hommes et de femmes se traînaient dans la neige, la pluie et la boue pour supporter les températures qu'un ordinateur aurait «corrigées» un siècle plus tard.
Nous avons constaté les effets des changements de sites en Australie à Canberra, Bourke, Melbourne et Sydney. Après avoir été martelé par la presse australienne (grâce à Graham Lloyd), la BOM a finalement désigné un «déménagement de site» comme étant la principale raison pour laquelle une tendance au refroidissement avait été ajustée à une tendance au réchauffement. En Australie, les ajustements apportés aux données augmentent la tendance jusqu’à 40%.
En théorie, un thermomètre dans un enclos en 1860 devrait être comparable à un thermomètre dans un enclos en 1980. Mais les experts estiment que le plus âgé doit lire trop haut, car il se peut que quelqu'un ait construit un tarmac à côté de lui quarante ou quatre-vingts ans plus tard. . Cette erreur systématique, à elle seule, crée une tendance au réchauffement à partir de rien, changement par changement.
Pire encore, les ajustements sont cumulatifs. Les données les plus anciennes peuvent être réduites à chaque correction d’étape pour les déplacements de site. Ken Stewart a constaté que certains ajustements apportés aux anciennes données historiques australiennes effacent jusqu'à 2 ° C des températures les plus précoces. Nous n’avons eu que «théoriquement» 0,9C de réchauffement de ce siècle.
Chaque bureau national fournit les données «préréglées». Le Centre Hadley les accepte. Ça vérifie ? Est-ce que ça compte ?
Pas d'audits, pas de contrôles, peu importe.
Autant que nous puissions en juger, ces données clés n’ont jamais été auditées auparavant. (Quel genre d'audit laisserait ces erreurs flagrantes ?) Les finances de l'entreprise sont auditées régulièrement, mais lorsque les prévisions mondiales et des milliards de dollars sont sur la table, les scientifiques du climat se moquent de savoir si les données ont fait l'objet de contrôles de contrôle qualité de base ou sont cohérentes. ou même logique.
Vastes zones de mesures inexistantes
En mai 1861, la couverture mondiale, selon la méthode du système de grille utilisée par HadCRUT4, était de 12%. Cela signifie qu'aucune donnée n'a été rapportée pour près de 90% de la surface de la Terre. Malgré cela, on dit qu’il s’agit d’une «moyenne mondiale». Cela n'a aucun sens. L’anomalie de température moyenne mondiale est calculée à partir de données qui ne couvrent parfois que 12,2 % de la surface de la Terre », a-t-il déclaré. "Jusqu'en 1906, la couverture mondiale était inférieure à 50 % et la couverture ne dépassait pas 75 % avant 1956. C’est une grande partie de la surface de la Terre pour laquelle nous n’avons aucune donnée." - John McLean
Les données réelles du thermomètre sont ignorées
En 1850 et 1851, les données officielles pour l'hémisphère sud ne comprennent qu'un seul thermomètre en Indonésie et quelques bateaux aléatoires. (À l’époque, les données sur les navires couvraient environ 15 % des océans de la moitié méridionale du globe. Même le mot «couvre» ne signifiait qu’une mesure par mois dans une cellule de la grille, bien qu’il soit généralement plus complexe.) Parfois, des données peuvent être utilisées, mais ne le sont pas. C’est en partie le choix de toutes les organisations météorologiques nationales distinctes qui ne peuvent envoyer aucune donnée à Hadley. Mais le personnel de Hadley ne semble pas non plus s'inquiéter de la rareté des données ou de la possibilité d'effectuer des mesures au thermomètre mieux que rien.
Combien de vagues de chaleur ont-ils manquées ? Par exemple, le 6 février 1851, des archives de journaux indiquent que les températures à l’ombre atteignaient 117 ° F à Melbourne (47 ° C), 115 à Warnambool et 114 à Geelong. C'était le jour du Black Thursday MegaFire. La BOM australienne fait valoir qu'il ne s'agissait pas de thermomètres standard mais que, comparés aux bateaux de navigation intérieure, aux îles caribéennes gelées et à 80 ° C en Colombie, les données réelles sont certainement plus utiles que les estimations faites à partir de thermomètres distants de 5 000 à 10 000 km. Il me semble que plusieurs thermomètres non officiels corroborés à Melbourne pourraient être plus utiles qu'un seul thermomètre officiel en Indonésie.
Bien que l'ensemble de données Hadley n'évalue pas explicitement la température à Melbourne en 1850, il estime «l'hémisphère sud», «le globe» et Melbourne en fait partie. Par défaut, certaines hypothèses et estimations doivent être remplies pour combler les lacunes.
Dans quelle mesure le thermomètre indonésien et certaines données relatives aux navires sont-ils en corrélation avec les températures en Tasmanie, au Pérou ou au Botswana? Serait-il «plus précis» qu'un thermomètre réel, même à l'ombre mais pas dans un écran Stevenson? Vous et moi pourrions le penser, mais nous ne sommes pas «des experts».
Time les experts ont répondu à des questions difficiles.
Le rapport complet
La vérification de 135 pages avec plus de 70 constatations est disponible au prix de 8 $ chez Robert Boyle Publishing. Vous pouvez aider à soutenir des mois de travail que des organismes officiels auraient dû accomplir il y a des années.
————————————-
Frapper toujours fort - Le point de vue de James Delingpole:
Bilan: une alerte au réchauffement climatique basée sur des données "négligentes et amateurs"
Le rapport de McLean n’aurait peut-être pas été aussi embarrassant pour le GIEC. Lundi, elle publiera son résumé de 2018 pour les décideurs politiques, affirmant que la crise du réchauffement climatique est plus urgente que jamais. Mais ce que McLean nous suggère fortement, c’est que ces demandes sont fondées sur des données auxquelles on ne peut tout simplement pas se fier.
Les données Hadley sont l’une des bases de données les plus citées et les plus importantes pour la modélisation du climat et, partant, pour les politiques de plusieurs milliards de dollars.
McLean a trouvé des données étrangement improbables, des erreurs d’ajustement systématiques, des lacunes importantes en l’absence de données, des erreurs de localisation, des températures en Fahrenheit rapportées en Celsius et des fautes d’orthographe.
Presque aucun contrôle de la qualité n'a été effectué: les erreurs aberrantes, qui sont des erreurs évidentes, n'ont pas été corrigées - une ville de Columbia a passé trois mois en 1978 à une température moyenne de plus de 80 degrés Celsius. Une ville de Roumanie est sortie de l'été 1953 de suite dans un mois de printemps à moins 46 ° C. Ce sont supposément des températures «moyennes» pour un mois complet à la fois. Saint-Kitts, une île des Caraïbes, a été enregistrée à 0 ° C pendant un mois et deux fois!
Les températures pour l’ensemble de l’hémisphère Sud en 1850 et pour les trois prochaines années sont calculées à partir d’un seul site en Indonésie et de quelques navires choisis au hasard.
La température de la surface de la mer représente 70 % de la surface de la Terre, mais certaines mesures proviennent de navires enregistrés à 100 km à l’intérieur des terres. D'autres se trouvent dans des ports à peine représentatifs de la haute mer.
Lorsqu'un thermomètre est déplacé sur un nouveau site, l'ajustement suppose que l'ancien site a toujours été construit et «chauffé» par le béton et les bâtiments. En réalité, le réchauffement artificiel s'est probablement introduit lentement. En corrigeant les bâtiments qui n'existaient probablement pas en 1880, les anciens enregistrements sont refroidis artificiellement. Des ajustements pour quelques modifications de site peuvent créer un siècle de tendances au réchauffement artificiel.
Des détails douloureux sur les pires valeurs aberrantes
Pour les mois d'avril, juin et juillet 1978, Apto Uto (Colombie, ID: 800890) avait une température moyenne mensuelle de 81,5 ° C, 83,4 ° C et 83,4 ° C respectivement.
La température moyenne mensuelle en septembre 1953 à Paltinis, en Roumanie, était de -46,4 ° C (les autres années, la moyenne de septembre était d'environ 11,5 ° C).
À l’aéroport de Golden Rock, sur l’île de Saint-Kitts, dans les Caraïbes, les températures moyennes mensuelles pour les mois de décembre 1981 et 1984 sont rapportées à 0,0 ° C. Mais entre 1971 et 1990, la moyenne des autres années était de 26,0 ° C.
Les abréviations
HadCRUT4 est un jeu de données de température globale, fournissant des anomalies de température maillées à travers le monde ainsi que des moyennes pour les hémisphères et le globe dans son ensemble. CRUTEM4 et HadSST3 sont les composants terrestre et océanique.
REFERENCES Jones, P. D., D. H. Lister, T. J. Osborn, C. Harpham, M. Salmon, and C. P. Morice (2012), Hemispheric and large-scale land-surface air temperature variations: An extensive revision and an update to 2010, J. Geophys. Res., 117, D05127, doi:10.1029/2011JD017139.
Les citoyens américains ont encore moins de liberté grâce à la prétendue ingérence électorale russe
par Tyler Durden Samedi, 10/06/2018 - 22:00 Écrit par Mac Slavo via SHTFplan.com,
La marche des États-Unis vers le communisme complet est en bonne voie. Grâce à la prétendue ingérence électorale russe, les citoyens vivant dans ce qui n’était plus le pays des libertés depuis plus d’un siècle ont encore moins de libertés qu’il ne l’était il ya deux ans, selon un rapport.
Selon un organisme de contrôle indépendant qui mesure les droits politiques et les institutions démocratiques à travers le monde, les Américains ont désormais moins de liberté depuis l'élection de Donald Trump et à cause de la prétendue ingérence électorale russe, a rapporté Business Insider.
"La cote attribuée aux États-Unis en matière de droits politiques a diminué (...) en raison de preuves de plus en plus d'ingérence de la Russie dans les élections de 2016, de violations des normes éthiques de base par le nouveau gouvernement et d'une réduction de la transparence du gouvernement", selon Freedom House. Dans l’ensemble, le taux de liberté des États-Unis est passé de 89 à 86, alors que ses droits politiques sont passés de 36 à 33, selon le rapport annuel de Freedom House. Le «pays de la liberté» n'est que le 58ème pays le plus libre du monde, ce qui en fait une blague de prétendre même que nous sommes libres.
Selon le rapport, le mépris des normes éthiques par l’administration actuelle et le réchauffement de l’enquête russe sur l’ingérence électorale menée par Robert Mueller sont les raisons spécifiques pour lesquelles les citoyens américains sont devenus moins libres.
Pour ce qui est de défier les normes éthiques, Freedom House a expressément mentionné que Trump avait refusé de publier ses déclarations de revenus, "faisant la promotion de son empire privé" et "nommant sa fille et son beau-fils conseillers de la présidence".
Pour ce qui est de prendre des décisions politiques importantes avec peu de consultation et de transparence, Freedom House a mentionné l’arrêté de Trump de janvier 2017 interdisant à sept pays à majorité musulmane de se rendre aux États-Unis, ainsi que son ordonnance de juillet 2017 interdisant aux militaires transgenres de transgenres. -Interne du milieu des affaires
Lisez le rapport Freedom in the World 2018 de Freedom House ici et expliquez ici la liberté des États-Unis.
Cela ne veut pas dire que nous sommes ou non d'accord avec la manière dont Freedom House détermine le niveau de liberté, car les taux d'imposition (le vol du gouvernement et la violation la plus évidente des droits fondamentaux de l'homme) ne constituaient évidemment pas un facteur dans leur classement. Le nombre de services gouvernementaux que le public n'est pas obligé de financer, qu'il les utilise ou non, n'a pas non plus été pris en compte. Il semble qu'ils ne jugent que sur quelques couches très sociales. Mais lisez les rapports et voyez par vous-même.
Les états avec le plus (et le moins) des ventes d'opioïdes "légales"
par Tyler Durden Samedi, 10/06/2018 - 20:00 Soumis par Priceonomics
Aujourd'hui, la crise des opioïdes en Amérique est devenue une catastrophe publique. La surdose de drogue, souvent due à l'abus d'opioïdes, est la nouvelle principale cause de décès chez les Américains de moins de 50 ans, dépassant ainsi les accidents de la route et les maladies cardiaques.
Ce qui est peut-être le plus choquant de la crise, c’est que sa cause est largement considérée comme l’abus et la prescription excessive d’analgésiques légaux, à savoir l’Oxycontin. Aujourd'hui, la consommation d'opioïdes ne se limite pas aux stupéfiants d'ordonnance à des drogues illégales (et parfois même mortelles) telles que l'héroïne et le fentanyl.
Étant donné le risque connu des médicaments opioïdes sur ordonnance, leurs ventes sont-elles à la hausse ou à la baisse en Amérique ? Et dans quels États les opioïdes légaux sont-ils vendus aux taux les plus élevés (et les plus bas) et comment cela se compare-t-il au taux de surdose de drogue ?
En collaboration avec le client de Priceonomics, Consumer Protect, nous avons décidé d'analyser les données gouvernementales relatives aux ventes de substances contrôlées fournies par la Drug Enforcement Agency, afin d'analyser les ventes d'opioïdes par habitant, par État et dans le temps.
Nous avons constaté que les ventes d'opioïdes ont aujourd'hui plus que doublé par rapport à 2000. Cependant, elles ont diminué de 28 % depuis 2010. Aujourd'hui, les États où les ventes d'opioïdes sont les plus élevées sont le Tennessee, l'Oklahoma et le Nevada. Les endroits où les ventes d'opioïdes sont les plus faibles sont Washington DC, le Minnesota et l'Illinois.
Nous avons constaté que le taux actuel de vente d'opioïdes était principalement décorrélé avec les surdoses de médicaments aujourd'hui. Cependant, nous avons constaté une relation beaucoup plus forte entre les ventes passées de 2010 et les niveaux actuels de surdose.
Autrement dit, où les ventes «légales» d'opioïdes d'ordonnance étaient élevées dans le passé, nous voyons aujourd'hui leurs conséquences sous la forme de surdoses de médicaments.
***
Pour donner un peu de contexte, examinons d’abord le taux de ventes légales d’opioïdes aux États-Unis au cours des deux dernières décennies. Les données sont fournies par la Drug Enforcement Agency, qui suit les ventes des deux principales variantes d'opioïdes d'ordonnance: l'oxycodone (Oxycontin, Percocet) et l'hydrocodone (Vicodin, Norco).
- voir liste sur site -
Entre 2000 et 2011, le taux de vente d'opioïdes pour 100 000 habitants aux États-Unis a plus que triplé, passant de 10,6 à 33,9. En 2011, toutefois, alors que les effets secondaires addictifs néfastes des drogues sont de mieux en mieux connus, la répression contre les «usines de médicaments sur ordonnance» a commencé.
Aujourd'hui, 24 000 kilogrammes d'opioïdes sont vendus pour 100 000 habitants en Amérique, soit plus du double de ce qu'ils étaient en 2000, mais 28 % de moins que le sommet de 2011.
Alors que la moyenne nationale en 2017 était de 24,4 kg d'opioïdes vendus par habitant, ce chiffre varie énormément d'un endroit à l'autre. Le graphique ci-dessous montre chaque État classé du plus petit au plus petit des opioïdes vendus.
- voir liste sur site -
Dans le Tennessee, un État aux prises avec une grave crise des opioïdes affiche le plus haut taux de ventes de produits pharmaceutiques sur ordonnance opioïdes du pays. Au Tennessee, le nombre d'opioïdes vendus est près de deux fois supérieur à la moyenne nationale. L'Oklahoma et le Nevada complètent les trois États ayant le plus haut taux de vente d'opioïdes. Par ailleurs, le district de Columbia a le taux de vente d’opioïdes le plus bas du pays, suivi du Minnesota et de l’Illinois.
Au cours des deux dernières décennies, où les ventes d'opioïdes en Amérique ont-elles explosé le plus rapidement ? Les ventes d'opioïdes ont augmenté partout, mais dans certains États, elles ont augmenté beaucoup plus rapidement que d'autres.
- voir liste sur site -
Le Kansas se classe au premier rang des États ayant le taux de croissance des ventes d’opioïdes le plus élevé du pays, enregistrant une hausse de 259 % par rapport à l’année 2000. Les 10 États ayant enregistré la plus forte croissance des ventes d’opioïdes ont augmenté de plus de 200 %. Même à Washington, dans le Massachusetts et le Maine (États où la croissance est la plus faible), les ventes d'opioïdes ont augmenté d'environ 50 %.
Y a-t-il de bonnes nouvelles ? Eh bien, depuis le début de la décennie, le taux de vente d'opioïdes a diminué. Les graphiques suivants montrent les États qui ont le plus et le moins progressé dans la réduction des ventes de ces médicaments.
- voir grapjique sur site -
Au cours de cette décennie, des États comme la Floride, le Maine et le Delaware ont vu leur taux de vente d'opioïdes diminuer. Au cours de cette période, tous les États ont enregistré une réduction des ventes légales d'opioïdes, à l'exception de l'Idaho, du Wyoming et de l'Arkansas, où les ventes ont légèrement progressé.
***
Existe-t-il une relation entre le niveau des ventes d'opioïdes sur ordonnance et le nombre de surdoses de médicament? Ensuite, nous avons examiné les données de 2016 sur les surdoses de drogue compilées par la CDC par rapport aux ventes d'opioïdes.
Au début, nous avons comparé les ventes d’opioïdes aujourd’hui dans un État à son taux de mortalité et avons constaté qu’il avait une corrélation proche de zéro. Cependant, nous avons ensuite examiné le taux de mortalité d’aujourd’hui par rapport au taux de vente d’opioïdes sur ordonnance au début de la décennie, alors que les ventes atteignaient un sommet.
La prolifération d’opioïdes «légaux» dans le passé a-t-elle eu pour résultat un nombre plus élevé de décès dus à une surdose de drogue aujourd’hui? Le graphique suivant montre la relation:
While further analysis is required, we found a positive relationship between past legal opioid sales and fatal drug overdoses in 2016 (the most recent year the data is available). The data provides some credence to the thesis that legal sales of prescription drugs in the past helped hasten the dramatic crisis going on today. What’s more, this data highlights the magnitude of the opioid epidemic in places like West Virginia where the death rates from drugs are nearly off the chart.
L’épidémie actuelle d’opioïdes a été en grande partie catalysée par la prolifération de médicaments tels que l’Oxycontin dans les années 2000 et 2010.
Bien que les ventes de ce médicament aient récemment été maîtrisées, leur taux de vente continue d’être beaucoup plus élevé qu’il ya 20 ans, des États comme le Tennessee, l’Oklahoma et le Nevada affichant le taux de vente le plus élevé du pays. Dernièrement, l'Illinois, le Minnesota et Washington DC ont enregistré le plus faible taux de vente d'opioïdes.
Au cours de la dernière décennie, le taux de vente légale a ralenti dans tous les États, à l'exception de l'Arkansas, du Wyoming et de l'Idaho. Cependant, l'épidémie d'opioïdes s'est aggravée alors même que les médicaments sur ordonnance sont devenus plus difficiles à obtenir. Les prescriptions légales sont peut-être moins disponibles, mais les utilisateurs ont opté pour des drogues illicites telles que l'héroïne et le fentanyl, qui sont moins chères et plus meurtrières.
Des câbles déclassés révèlent un plan américain pour Nuke Vietnam
par Tyler Durden Samedi, 10/06/2018 - 15h30
Des documents récemment déclassifiés datant de l'ère vietnamienne révèlent que le plus haut commandant militaire des États-Unis à Saigon avait mis en place en 1968 un plan visant à placer des armes nucléaires au Sud-Vietnam, mais avait été rejeté par le président Lyndon B. Johnson, rapporte le New York Times.
Le commandant, le général William C. Westmoreland, préparait secrètement l'option nucléaire - préparer des plans pour disposer d'armes nucléaires au cas où les forces américaines se retrouveraient sur le point de se faire battre lors de la bataille de Khe Sanh - l'une des plus terribles batailles dans la guerre.
«Si la situation dans la zone démilitarisée devait changer radicalement, nous devrions être prêts à introduire des armes plus efficaces contre les forces massives», a écrit le général Westmoreland dans un câble déclassifié en 2014, mais qui n'a pas été révélé avant que M. Beschloss l'ait cité son prochain livre.
"Dans de telles circonstances, je visualise que des armes nucléaires tactiques ou des agents chimiques seraient des candidats actifs à l'emploi." -NY Times
Le plan d’utilisation des armes nucléaires, appelé Fracture Jaw, verrait l’utilisation d’armes nucléaires au Sud-Vietnam pour une utilisation à court préavis contre les troupes vietnamiennes. Il a été sabordé par LBJ après que le conseiller à la sécurité nationale de Johnson, Walt Rostow, ait alerté le président sur le plan dans un mémorandum.
Le président a immédiatement rejeté le plan et ordonné un retournement de situation, selon l'assistant présidentiel Tom Johnson, qui a pris des notes lors des réunions sur le sujet qui se sont tenues dans la salle à manger familiale située au deuxième étage de la Maison Blanche.
Le conseiller à la sécurité nationale de la Maison Blanche, Walt W. Rostow, a alerté le président Lyndon B. Johnson de son intention de transférer des armes nucléaires dans le Sud-Vietnam le même jour où le général William C. Westmoreland avait annoncé au commandant américain dans le Pacifique qu'il approuvait la décision. opération. (NYT)
"Quand il a appris que la planification avait été lancée, il a été extrêmement bouleversé et a envoyé un message fort à Rostow, et je pense directement à Westmoreland, pour le fermer", a déclaré Johnson Johnson dans une interview, ajoutant que LBJ était grandement préoccupé par une "guerre plus large" dans laquelle Pékin entrerait dans la mêlée comme ils l'avaient fait 18 ans auparavant en Corée.
"Johnson n'a jamais totalement fait confiance à ses généraux", a déclaré l'ancien assistant. "Il avait une grande admiration pour le général Westmoreland, mais il ne voulait pas que ses généraux mènent la guerre."
Si les armes avaient été utilisées, cela aurait ajouté aux horreurs de ce qui a été l’une des années les plus tumultueuses et les plus violentes de l’histoire américaine moderne. Johnson a annoncé des semaines plus tard qu'il ne se représenterait pas. Le révérend Martin Luther King Jr. et Robert F. Kennedy ont été assassinés peu de temps après.
L'histoire de la proximité des États-Unis en matière d'armes nucléaires au Vietnam, 23 ans après que les bombardements atomiques d'Hiroshima et de Nagasaki aient forcé le Japon à se rendre, est contenue dans «Presidents of War», un livre à paraître de Michael Beschloss, président historien. -NY Times
"Johnson a certainement commis de graves erreurs en participant à la guerre du Vietnam", a déclaré Breschloss, qui a découvert les documents en cherchant son livre. "Mais nous devons le remercier d'avoir veillé à ce qu'il n'y ait aucune chance, au début de 1968, que ce conflit tragique devienne nucléaire."
Johnson - sachant que la bataille de Khe Sanh était imminente, a pressé ses chefs militaires de veiller à ce que les États-Unis ne subissent pas une défaite embarrassante, tandis que les forces nord-vietnamiennes lançaient tout dans leur arsenal contre deux régiments de marines des États-Unis et un petit nombre de troupes sud-vietnamiennes.
Et tandis que le général Westmoreland exprimait publiquement sa confiance en sa victoire, il organisait en privé un groupe qui se réunirait à Okinawa afin de déterminer comment transférer les armes nucléaires en Corée du Sud - et d'élaborer des stratégies pour les utiliser de manière stratégique contre les forces nord-vietnamiennes. .
«J'ai approuvé la fracture de la mâchoire Oplan», a écrit le général Westmoreland à l'amiral Ulysses S. Grant Sharp Jr., commandant américain dans le Pacifique, le 10 février 1968. (L'amiral a été nommé pour le général de la guerre civile et président, qui était marié à un ancêtre.) -NY Times
L'opération prévue «Fracture Jaw» visant à introduire des armes nucléaires dans le Sud-Vietnam devait être lancée dans le cadre de cette notification du 10 février 1968 du général Willam C. Westmoreland, commandant des forces américaines au Vietnam. (NYT) Le plan de Westmoreland n'a pas duré longtemps. Le même jour que son mémorandum, Rostow a envoyé un mémorandum "pour les yeux seulement" à LBJ - sa deuxième de la semaine - avertissant du plan imminent. Deux jours plus tard, l'amiral Sharp a ordonné "d'interrompre toute planification pour Fracture Jaw" et de placer tout le matériel de planification, "y compris les messages et la correspondance s'y rapportant, sous sécurité positive".
«Interrompez toute planification pour Fracture Jaw», a ordonné l'amiral Ulysses S. Grant Sharp Jr., commandant des opérations américaines dans le Pacifique, dans un câble laconique daté du 12 février 1968. «La sécurité de cette action et des actions antérieures doit être garantie. étanche à l'air. "(NYT)
L'opération Fracture Jaw fait écho à d'autres moments où les présidents américains ont été forcés de considérer - ou de bluffer - l'utilisation d'armes nucléaires, notamment lors de la crise des missiles cubains de 1962. Auparavant, le général Douglas MacArthur avait exploré l'utilisation des armes nucléaires dans la guerre de Corée avant d'être limogé par le président Harry Truman, qui craignait que la stratégie agressive de MacArthur ne déclenche une vaste guerre avec la Chine. À un moment donné, il a cependant déplacé des ogives nucléaires vers des bases du Pacifique, bien qu'elles n'aient pas été placées en Corée même.
Mais le cas de Khe Sanh était différent, montrent les documents.
«En Corée, MacArthur n’a pas lancé d’appel direct au transfert immédiat des armes nucléaires sur le théâtre des opérations», lorsqu’il est apparu que la Corée du Sud risquait de tomber dans l’invasion du Nord en 1950, a déclaré M. Beschloss. "Mais au Vietnam, Westmoreland faisait pression sur le président pour faire exactement cela." -NY Times
Dans les quatre jours qui ont suivi la lettre de Westmoreland, l'amiral Sharp, commandant du Pacifique américain dans le Pacifique, a écrit qu'il avait été "informé du plan d'urgence pour l'emploi d'armes nucléaires tactiques dans la zone de Khe Sanh / DMZ, qui avait été rédigé par des membres de nos états-majors respectifs. semaine à Okinawa. " Il a déclaré qu'il était "conceptuellement valable" et a demandé qu'un plan complet lui soit transmis "de manière accélérée afin que les plans d'appui nécessaires puissent être élaborés".
Trois jours plus tard, Westmoreland a répondu qu'il avait approuvé le plan, alors qu'à la Maison-Blanche, Rostow avait déclaré au président: "Il n'y a pas d'armes nucléaires au Sud-Vietnam. L'autorité présidentielle serait nécessaire pour les installer là-bas".
Cela a conduit à "l'éruption en colère" de LBJ sur le plan, et en quelques jours, Sharp a ordonné un arrêt.
L'ensemble du plan a été rédigé en secret et a été gardé des Marines américains et d'autres soldats à Khe Sanh.
«Je ne me souviens d'aucune discussion sur les armes atomiques sur le sol à Khe Sanh», a déclaré Lewis M. Simons, alors journaliste à Associated Press sur le terrain avec les troupes, et plus tard, un journaliste lauréat du prix Pulitzer ayant travaillé pour le Washington Post. et les journaux Knight Ridder. -NY Times
Selon l'ancien président du Comité des relations extérieures du Sénat, J. William Fulbright (D-AK), "nous avons tout simplement menti" et les mensonges avaient entraîné la perte d'une "forme de démocratie", selon les transcriptions.
Violences faites aux femmes: un millier de personnes répondent à l’appel de Muriel Robin
22:42 06.10.2018
La femme qui porte plainte doit être sûre qu’elle sera prise en charge, a déclaré au micro de Sputnik Muriel Robin. Ce samedi, un millier de personnes ont répondu présent à l’appel de cette actrice française et se sont rassemblées devant l'ancien palais de justice de la capitale française pour dénoncer les violences faites aux femmes.
«Une victime qui se défend n’est pas une coupable», «Viol = crime contre l’humanité», pouvait-on lire sur leurs pancartes. Scandant «La justice!», plus d’un millier de personnes sont rassemblées ce 6 octobre devant l’ancien palais de justice de Paris en soutien aux femmes victimes de violences, dont conjugales. Parmi les manifestants, on pouvait voir la maire de Paris Anne Hidalgo ainsi que d’autres personnalités. Et bien évidemment celle qui a lancé l’appel, Muriel Robin.
Expliquant son initiative au micro de Sputnik, l’actrice souligne qu’il est indispensable que la femme qui porte plainte soit prise en charge.
«Si un système est mis en place et cette femme sait qu’elle n’aura pas peur et que le cauchemar s’arrêtera pour elle, elle parlera davantage. Mais, aujourd’hui, on sait comment la renvoyer chez elle», explique-t-elle à la correspondante de l’agence.
Un millier de personnes à Paris contre les violences faites aux femmes
Et de rappeler aux journalistes que sur 150 morts par an des mains du conjoint 123 sont des femmes et que ce nombre pourrait être considérablement réduit si une femme ne décédait pas tous les trois jours sous les coups de son conjoint.
Le Brésilien "Donald Trump" remporte un "soutien écrasant" lors du vote au premier tour du président
par Tyler Durden Dim, 10/07/2018 - 19:45
Mise à jour (19h45 HE): Après l’une des plus bizarres campagnes présidentielles de l’histoire du Brésil (il y avait à un moment un candidat emprisonné et un autre hospitalisé suite à une blessure mortelle), Jair Bolsonaro, le candidat de droite qui a adopté l'étiquette de "Donald Trump du Brésil" a dépassé même les attentes les plus roses.
Environ 90 minutes après la fermeture des derniers bureaux de vote dans les provinces les plus à l'ouest du pays, 95 % des votes ont été comptés. Le résultat: une victoire écrasante en faveur de Bolsonaro, qui a remporté 46,8 % des suffrages, selon la chaîne de télévision brésilienne Globo.
Cela signifie que, signe d'une bonne nouvelle pour les actions de Braziliang, la menace d'un virage à gauche ayant été évitée, Bolsonaro a surperformé même les sondages les plus optimistes et a presque remporté une victoire au premier tour. Mais comme la constitution brésilienne appelle à un second tour, si aucun candidat ne remporte la majorité absolue, il est prévu que Bolsonaro, ancien officier de l'armée et législateur fédéral, affrontera le candidat du parti des travailleurs, Fernando Haddad, ancien maire de Sao Paulo et Lula, dans un vote de second tour prévu pour le 28 octobre.
Le candidat de centre-gauche Ciro Gomes pourrait encore avoir une chance de dépasser Haddad lors du décompte final des votes, bien que, selon le FT, cette issue soit peu probable.
Accompagné d'une escorte armée, Bolsonaro - qui, il y a un mois, a été attaqué par un fanatique manier les couteaux - a voté dans une école d'une section militaire de Rio de Janeiro sous les applaudissements de ses partisans.
Les investisseurs s’attendent à une reprise des actions lundi matin, sachant que Bolsonaro était le candidat préféré du marché (son avance dans les sondages reflétait une hausse du real brésilien et d’Ibovespa), et il a conclu avec ce que l’on pense généralement mieux que ce que les marchés avaient prévu. Bloomberg a annoncé vendredi que certains investisseurs avaient accumulé des obligations sur Ibovespa afin de se protéger contre des positions plus faibles que prévu de Bolsonaro, qui s'est imposé comme le leader décisif après avoir été poignardé lors d'un dernier rallye de campagne. mois.
* * *
Les 147 millions d'électeurs brésiliens éligibles ont commencé à voter lors des élections fédérales de dimanche, ce qui aidera à décider qui remplacera le centriste farouchement impopulaire, Michel Temer, en tant que président du plus grand pays et de la plus grande économie d'Amérique du Sud (il déterminera également la composition du prochain congrès). gouvernorats, vice-gouvernorats et postes au gouvernement d’État).
Alors qu'aucun candidat ne devrait remporter une majorité absolue - ce qui signifie que les deux premiers candidats s'affronteront lors d'un vote au second tour le 28 octobre - le député fédéral Jair Bolsonaro, un candidat d'extrême droite qui a divisé le pays avec ses commentaires sympathiques à propos de La dictature militaire du Brésil, qui existe depuis 20 ans, a pris de l'avance dans les derniers sondages, certains affirmant que son soutien atteignait 44 %.
Cela signifie qu'après des années de gouvernement de gauche, suivies d'une brève période de centrisme timide, un homme qui a adopté l'étiquette "le Brésilien Donald Trump" est sur le point de remporter une élection présidentielle, amenant le mouvement populiste mondial anti-établissement en Amérique du Sud.
Un sondage effectué le 3 octobre a révélé que Bolsonaro avait voté à 32 %, contre 22 % un mois plus tôt, après avoir été poignardé mortellement par le socialiste Bolsonaro, ancien parachutiste de l'armée brésilienne, lors d'un rassemblement. Bien que Bolsonaro ait perdu une quantité massive de sang, l’attaque a ironiquement contribué à galvaniser ses partisans. Bien qu'absent du vote présidentiel cette semaine, Bolsonaro a toujours dominé.
Bien entendu, l'électorat a embrassé un candidat populiste d'extrême droite dans un élan de nostalgie de la dictature militaire qui a dirigé le Brésil entre 1964 et 1985 n'est pas un hasard. Les maux sociaux auxquels sont confrontés les 210 millions de Brésiliens - qui vivaient il y a quelques années seulement une période de prospérité relative - sont innombrables et diffuse: le taux de chômage a grimpé en flèche à 12%, un déficit budgétaire béant, une mauvaise gestion économique et une corruption publique endémique ont ébranlé la confiance des investisseurs internationaux qui ont laissé le real brésilien s'effondrer. La criminalité est généralisée, avec plus de 63 000 meurtres l’an dernier, ce qui pousse les gens à aspirer à la stabilité sociale qui caractérisait jadis la vie du pays. Les écoles, les hôpitaux et les routes sont en mauvais état et sous-financés. Parce que ces facteurs, parmi d’autres (notamment son embarras dans un scandale de corruption, à l’instar de son prédécesseur, Dilma Roussef), le président brésilien Michel Temer est universellement méprisé, avec un taux d’approbation de 2 %.
Alors que le Parti des travailleurs de gauche présidait au dernier boom économique, il est également responsable de la chute du pays dans la spirale de la mort économique. Et l’enquête massive sur le «lavage de voiture» sur la corruption du géant énergétique Petrobras, scandale qui a conduit à la destitution de l’ex-présidente Dilma Roussef, a suscité un ressentiment généralisé à l’égard de la gauche brésilienne. Selon certaines mesures, l'ancien président Lula da Silva, l'homme politique le plus populaire du pays, empêchait de se présenter sous la bannière WP en raison de son emprisonnement pour corruption. Fernando Haddad, qui devance Bolsonaro dans les sondages et l’affrontera probablement lors du second tour, se présentera à la place de Lula après qu’un tribunal eut statué que celui-ci n’était pas éligible en raison d’une loi qu’il avait lui-même signée pendant sa présidence.
Bolsanaro est largement considéré comme le candidat pro-marchés et des signes de progrès dans les sondages ont renforcé le real brésilien ainsi que les actifs nationaux. Et malgré son passé de propos misogynes et homophobes, Bolsanaro continue de recevoir un large soutien parmi les femmes brésiliennes, à l'instar d'une femme d'affaires de Sao Paolo qui a partagé ses vues avec le WSJ.
"Le [Parti des travailleurs] a dévasté le pays", a déclaré Solange Correia, une femme d'affaires de São Paulo âgée de 58 ans, qui soutient avec enthousiasme M. Bolsonaro, l'un des rares hommes politiques brésiliens à ne pas être entaché de scandales, malgré ses 27 années de Congrès.
Bolsonaro a également décrié le processus électoral du Brésil, qui repose sur des machines à voter électroniques, comme étant profondément suspect et a déclaré, dans un commentaire qui faisait écho à celui prononcé par le président Trump lors de la campagne de 2016, qu'il rejetterait tout résultat où il ne serait pas vainqueur. Pour assurer l'équité, l'armée brésilienne déploie 28 000 soldats pour protéger les bureaux de vote, tandis que l'Organisation des États américains envoie des équipes d'observateurs indépendants.
Bien que l'économiste ait distingué Bolsonaro dans un article mettant en garde contre un retour à la dictature militaire du Brésil, il n'est pas le seul candidat à avoir exprimé sa sympathie et son soutien aux dirigeants autoritaires. Le Parti des travailleurs a exprimé son soutien aux hommes forts de gauche à Cuba et au Venezuela, par WSJ.
De nombreux Brésiliens craignent un retour de l'un ou l'autre candidat au régime autoritaire, compte tenu de la sympathie de M. Bolsonaro pour le régime militaire de 1964-1985 et du soutien manifesté par le parti de M. Haddad aux régimes d'hommes forts au Venezuela et à Cuba. Ces inquiétudes ont conduit le juge en chef Dias Toffoli à réclamer publiquement plus de retenue plus tôt dans la semaine, à l’occasion de l’anniversaire de la Constitution de 1988 du pays. "La dictature, plus jamais", a-t-il déclaré lors d'une session télévisée de la Cour suprême.
Certains universitaires ont affirmé que l'obsession actuelle du Brésil avec les dirigeants d'hommes forts avait atteint "le point de folie".
"Nous avons atteint un point de folie", a déclaré Boris Fausto, un historien brésilien qui, à 87 ans, a été témoin de deux longues dictatures au Brésil. "L'extrémisme a pris le dessus, en particulier la montée d'une extrême droite qui n'a aucun engagement en faveur de la démocratie."
C'est peut-être vrai, mais là encore, la colère ressentie par les Brésiliens semble être justifiée. Les lois électorales brésiliennes prescrivent le vote à tous les citoyens âgés de 18 à 70 ans. Ceux qui ne votent pas risquent de se voir infliger une petite amende et d'autres sanctions administratives. Pour les Brésiliens âgés de 16 et 17 ans, ou de 70 ans et plus, le vote est facultatif.
Étant donné que le Brésil est divisé en trois fuseaux horaires, les scrutins dans l'état occidental d'Acre ne fermeront pas avant 19 heures à Brasilia (18 heures à New York). Une fois le vote terminé, Bloomberg s'attend à ce que les résultats affluent rapidement. Dans le même temps, Bloomberg a annoncé que les investisseurs s'apprêtaient à acheter des positions sur Ibovespa pour se protéger contre une performance plus faible que prévu de Bolsonaro lors du vote de dimanche. S'il surpasse les attentes, attendez-vous à ce que les actions nationales se redressent dans un élan de repli.
par Tyler Durden Dim, 10/07/2018 - 19:20 Soumis par Joe Jervis du Daily Bell
“Pas de taxation sans représentation !”
C'était une phrase populaire au cours des décennies qui ont précédé la guerre d'indépendance. Les colons ont pensé qu'il était injuste d'être taxé et soumis à l'autorité anglaise sans consentement.
Aujourd'hui, Washington DC impose des lois et des taxes à chacun des 320 millions d'habitants des États-Unis.
Et tout comme sous la règle anglaise, nous ne sommes pas représentés au gouvernement fédéral.
Maintenant, je sais ce que vous pensez… nous avons le droit de voter pour nos dirigeants.
Nos votes envoient des représentants, des sénateurs et le président à Washington DC. Et ils représentent nos intérêts au gouvernement.
Les représentants des États-Unis sont élus par le peuple, répartis en districts.
Ils vont à Washington DC et composent la Chambre des représentants; une moitié du Congrès.
Le Congrès est l'ensemble du pouvoir législatif. Ils écrivent et adoptent toutes les lois des États-Unis.
Lorsque l'Amérique était nouvelle, chaque représentant venait d'un district d'environ 40 000 habitants.
Mais avec l'augmentation de la population américaine, le nombre de représentants au Congrès s'est limité à 435 personnes. Cela signifie également que le nombre de citoyens représentés par chaque membre a également augmenté…
Aujourd'hui, les représentants sont élus par districts d'environ 713 000 personnes en moyenne.
Cela signifie que nos votes pour le représentant des États-Unis sont environ 6 % aussi puissants qu'ils l'étaient lors de la fondation de l'Amérique.
(Je vais en fonction de la population totale et non de la population électorale pour garder les choses simples. Mais la même leçon s’applique si vous faites le calcul en vous basant sur la population électorale.)
Notre représentation à la Chambre des représentants a été diluée par 17.
Le Sénat américain constitue l’autre moitié du Congrès.
Les sénateurs sont élus par l'ensemble de la population de chaque État, avec un vote à la majorité simple.
Mais ce n’était pas supposé être comme ça.
Jusqu'en 1913, les sénateurs étaient élus par la législature de chaque État.
Chaque État a son propre congrès, à l'image du système américain. Vous votez pour les représentants des États et les sénateurs des États et ils dirigent le gouvernement de l'État.
Ce sont les membres du gouvernement de votre État qui ont élu des sénateurs américains à envoyer à Washington DC. Cela a donné la représentation des gouvernements des États à Washington DC.
Les citoyens contrôlaient donc la Chambre des représentants des États-Unis en votant directement pour qui les représenterait de leur district.
Et les gouvernements des États contrôlaient le Sénat américain par les assemblées législatives des États qui votaient pour qui représenterait l'État au sein du gouvernement fédéral.
Bien entendu, le peuple élit toujours les sénateurs et les représentants des États, qui ont ensuite élu les sénateurs américains.
Mais en 1913, le 17ème amendement autorisait le vote populaire dans chaque État pour élire les sénateurs américains. Donc, il est devenu une course à l'échelle de l'État, tout comme gouverneur.
On dirait que cela donne aux gens plus de voix au sein du gouvernement fédéral… mais en réalité, cela nous a donné BEAUCOUP moins de mot à dire.
Prenons la Louisiane comme exemple…
Par taille de population, Lousiana est l’état médian. La moitié des États ont une population plus grande et la moitié des États ont une population plus petite. Lousiana est smack dab au milieu.
La Louisiane compte au total 105 représentants d’État. Chaque représentant d’État est élu par un district d’environ 45 000 habitants.
39 sénateurs d'État sont élus par des districts d'environ 120 000 habitants chacun.
La population totale de la Louisiane est d'environ 4,7 millions.
Donc, dans une course au rang de sénateur américain, vous ne votez que sur 4 700 000.
Votre vote est 105 fois plus puissant dans une course de représentants de l’État (1/45 000 contre 1/4 700 000).
Cela compte 105 fois plus que votre vote pour le sénateur américain.
Votre vote est 39 fois plus puissant dans une course au Sénat d'un État (1/120 000 contre 1/4 700 000).
Cela compte 39 fois plus que votre vote pour le sénateur américain.
Mais imaginons que les représentants des États choisissent toujours le sénateur américain…
Il ou elle a 1 vote sur un total de 105 représentants.
Et le vote de votre sénateur compte pour 1 sur 39 sénateurs au total.
N'oubliez pas que votre vote pour les représentants des États et le Sénat des États compte… Dans ces petits districts, vous avez 105 fois plus de pouvoir que dans une course à l'échelle de l'État.
Donc, comparé à la course au Sénat américain, votre vote a BEAUCOUP plus de chances d'influencer 2 des 144 sièges de la législature (39 sénateurs + 105 représentants).
Si vos deux choix sont élus, vous avez choisi 1,4% des législateurs des États qui choisiront votre sénateur américain.
Mais votre vote pour le Sénat américain dans la course à l’état ne vous donne que 0,002 % de la personne élue sénateur américain.
Si vos choix d’État et de Sénat sont élus, vous avez 70 000 fois plus de contrôle sur le choix du sénateur US.
Mais que se passe-t-il si aucun de vos choix pour le représentant de l'État et le Sénat n'est élu ?
Cela signifie que vous avez 0 % de dire en qui est élu sénateur américain…
Ce qui est statistiquement égal à votre .00002 % dit que vous avez maintenant.
Ainsi, le pire scénario possible dans l'ancien système est statistiquement le même que le seul scénario du système actuel.
Vous avez 100 % de chances de ne pas avoir de voix dans le système actuel.
Mais lorsque les législateurs des États ont élu des sénateurs américains, vous avez beaucoup mieux pu faire entendre votre voix. Et quand vous avez eu cette voix, elle comptait pour beaucoup plus.
1913 était une mauvaise année…
Le système de la Réserve fédérale a été mis en place, renforçant ainsi le contrôle fédéral centralisé sur le système bancaire et monétaire…
Le 16e amendement a permis au gouvernement fédéral de percevoir des impôts sur le revenu, assurant ainsi un approvisionnement régulier en fonds publics importants…
Le 17ème amendement a enlevé le contrôle du Sénat aux gouvernements des États.
Vous pourriez dire que c'était le début d'une nouvelle États-Unis d'Amérique… qui ne ressemblait guère à l'ancienne structure.
C'était le début d'une taxation sans représentation… Le renversement complet de tout ce que les Américains ont combattu et réalisé pendant la révolution américaine.
Cela a commencé l'ère de l'empire américain. Un gouvernement centralisé, assez grand pour faire tout ce qu'il veut sans modération.
Trop grand pour que le peuple puisse contrôler grâce à la démocratie représentative.
Nous avons encore une chance d'être représentés dans les gouvernements des États. Mais la sécession est un sujet pour un autre jour…
Vous n'êtes pas obligé de respecter les règles des politiciens corrompus, des médias manipulateurs et des pairs qui ont subi un lavage de cerveau.
Le 'GIEC' = nano-groupuscule d'anti-scientifiques.
LE GIEC TIRE LA SONNETTE D'ALARME Le Giec estime que le monde doit prendre des mesures «sans précédent» s'il veut limiter le réchauffement climatique à 1,5°C.
GREENPEACE APPELLE LA SUISSE À SE «RÉVEILLER»
Greenpeace Suisse estime lundi que le rapport du GIEC sur le climat, appelant à engager des transitions sans précédent pour limiter la hausse du réchauffement à 1,5 degré, est un «signal d'alarme». La Suisse «est loin d'atteindre» les objectifs fixés à Paris, rappelle l'ONG. L'ONG appelle notamment à prendre des mesures supplémentaires dans le cadre de la Loi sur le gaz carbonique.
08.10.2018, 03h33
Le monde devra engager des transformations «rapides» et «sans précédent», s'il veut limiter le réchauffement climatique à 1,5°C, soulignent les experts climat de l'ONU (Giec), mettant en garde contre des risques accrus au-delà de ce seuil.
Dans un rapport de 400 pages, dont le «résumé à l'intention des décideurs politiques» est publié lundi, les scientifiques exposent les nombreux impacts déjà à l'oeuvre, et notamment la menace d'emballement au-delà d'1,5°C de réchauffement (par rapport aux niveaux pré-industriels): vagues de chaleur, extinctions d'espèces, ou déstabilisation des calottes polaires, source de montée des océans sur le long terme.
«Chaque petit accès de réchauffement supplémentaire compte, d'autant que passer 1,5°C accroît le risque de changements profonds voire irréversibles, comme la perte de certains écosystèmes», explique Hans-Otto Pörtner, co-président de cette session du Giec qui a réuni chercheurs et représentants des Etats toute la semaine dernière en Corée du sud.
Si le mercure continue de grimper au rythme actuel, sous l'effet des émissions de gaz à effet de serre, il devrait atteindre +1,5°C entre 2030 et 2052, note le rapport, basé sur plus de 6000 études. Et si les Etats s'en tiennent à leurs engagements de réduction d'émissions pris dans le cadre de l'accord de Paris en 2015, ce sera +3°C à la fin du siècle.
Alors que faire, tandis que 2017 a encore vu les émissions mondiales liées à l'énergie repartir à la hausse ? Pour le Giec, pour rester à 1,5°C, les émissions de gaz carbonique devront chuter drastiquement dès avant 2030 (-45% d'ici 2030) et le monde atteindre une «neutralité carbone» en 2050 (autrement dit il faudra cesser de mettre dans l'atmosphère plus de gaz carbonique qu'on ne peut en retirer). «Faisabilité» Villes, industries, énergie, bâtiment... tous les secteurs sont appelés à s'atteler à de «profondes réductions d'émissions»: rester à 1,5°C demandera «une transition rapide et de grande portée», d'une ampleur «sans précédent». Le Giec insiste sur l'énergie - charbon, gas, pétrole étant responsables des trois quarts des émissions. Et propose plusieurs scénarios chiffrés incluant différentes combinaisons d'actions.
«Le rapport donne aux décideurs politiques l'information qu'il leur faut pour prendre des décisions tout en considérant aussi les besoins des populations», explique la sud-africaine Debra Roberts, autre coprésidente de cette réunion. «Les années à venir seront les plus déterminantes de notre histoire», estime-t-elle. Pour sa collègue française, la climatologue Valérie Masson-Delmotte, également à Incheon, c'est «un constat lucide et difficile: la politique des petits pas ça ne suffit pas».
«Il nous dit "si on n'agit pas maintenant, on va vers un monde où on sera en permanence en gestion de crises"», dit-elle. «La bonne nouvelle est qu'il y a des actions en cours dans le monde, mais il faudrait les accélérer pour avoir des transitions douces. La vraie question de la faisabilité c'est celle-là: les gens sont-ils prêts à agir, et y aura-t-il assez de volonté politique collective ?»
«Nous avons cherché à voir si les conditions nécessaires pour tenir 1,5°C étaient réunies», résume Jim Skea, de l'Imperial College de Londres. «Et oui, les lois de la physique et de la chimie le permettent, ainsi que les technologies, le changement des modes de vie et les investissements. La dernière chose, à laquelle les scientifiques ne peuvent répondre, c'est si c'est faisable politiquement et institutionnellement. Nous avons remis le message aux gouvernements, nous leur avons donné les preuves, à eux de voir».
L'Alliance des petits Etats insulaires, à la pointe du combat pour inscrire l'objectif 1,5 dans l'accord de Paris, a appelé lundi «les nations civilisées à prendre leurs responsabilités en relevant leurs efforts pour réduire les émissions». «Le rapport montre que nous n'avons plus qu'une occasion, des plus minces, pour éviter des dommages impensables au système climatique qui nous fait vivre», a dit Amjad Abdulla, qui représente une quarantaine de nations allant des Maldives aux Bahamas en passant par Singapour éparpillées sur tous les océans. Il est «convaincu que les historiens regarderont ces conclusions comme un moment clé dans l'histoire des hommes».
«Y arriverons-nous à temps ? Personne ne sait», dit Kaisa Kosonen, responsable climat pour Greenpeace. «Ce qui compte maintenant est que nous décidions d'essayer et que nous en fassions notre priorité. Seulement alors aurons-nous une chance de nous protéger des impacts que la science nous annonce.» (afp/nxp)
Le gaz carbonique nous «serre» ! http://www.legumes.ch/public/index.php?cid=100&articleid=560
MERCREDI 20 OCTOBRE 2010
Alors que la législation prévoit de mettre en place une taxe gaz carbonique avec pour objectif de réduire les dépenses énergétiques de 10 %, voici quelques éléments de réflexion quant à la conception des installations techniques de serres et leur mode de fonctionnement pour utiliser au mieux le gaz carbonique. Commençons par les intérêts agronomiques du gaz carbonique.
Article
A la base de la croissance des plantes, on trouve la photosynthèse, qui combine gaz carbonique et eau pour fabriquer les sucres qui serviront à construire la plante en exploitant l'énergie lumineuse disponible.
Les plantes, grâce à la photosynthèse, sont les seuls êtres vivants capables d'exploiter le gaz carbonique atmosphérique pour fabriquer des acides aminés et protéines. Les animaux et l'homme dépendent des plantes pour cette fonction. La photosynthèse augmente avec la lumière ainsi qu'avec le gaz carbonique disponible c'est-à-dire que si le niveau de gaz carbonique est trop faible, la lumière est mal exploitée.
Exemples:
- à 350 ppm, niveau atmosphérique, et 200 W/m², la plante assimile 20 kg de gaz carbonique par hectare et par heure. - si la teneur en gaz carbonique tombe à 100 ppm, la plante n'assimile plus que 10 kg de gaz carbonique par hectare et par heure. C'est comme si on ne disposait plus que de 80 W/m² de lumière; la perte est de 120 W/m².
Un hectare de serre contient environ 40'000 m³ d'air, soit 14 m³ de gaz carbonique ou 27.5 kg de gaz carbonique, soit une heure de photosynthèse à 350 W/m² sans ventilation.
Pour capter la lumière et le gaz carbonique nécessaires à la photosynthèse, la plante a besoin de surface foliaire. Cette surface sert aussi à la transpiration, qui est le moteur de l'absorption hydrique et minérale. Pour la tomate, 30 % de la biomasse sont alloués aux parties végétatives, feuilles, tiges et racines alors que les 70 % restant sont alloués aux fruits.
Comme la serre limite les échanges gazeux avec l'extérieur suivant la ventilation, il est intéressant d'apporter du gaz carbonique aux plantes pour favoriser la photosynthèse. Les concentrations peuvent être de 650 à 1000 ppm en hiver, soit 3 à 20 kg /ha/h, et de 400 à 500 ppm en été pour éviter les pertes trop importantes par ventilation, soit 25 à 40 kg/ha/h injecté.
Dans tous les cas, une concentration plus faible mais durant plus longtemps fournit plus d'efficacité, le matin de préférence.
Maîtrise des installations
L'usage du gaz naturel en chaufferie permet la production gratuite de gaz carbonique. Ce gaz est composé essentiellement de méthane (CH4) dont la combustion complète produit du gaz carbonique et de la vapeur d'eau.
La combustion d'1 m³ de gaz nécessite 2 m³ d'oxygène soit 10 m³ d'air. Cette combustion va produire environ 11 m³ de produits contenant 2 kg de gaz carbonique pouvant être injectés en serre après refroidissement et condensation de la vapeur d'eau.
L'énergie thermique récupérée après condensation atteint 11 kWh.
Les besoins thermiques d'une serre sont extrêmement variables au cours de l'année et au cours d'une journée. Alors qu'une puissance thermique en chaufferie de 300 à 500 kW/ha est suffisante pour assurer la production de gaz carbonique nécessaire, soit 70 à 100 kg/ha/h, une puissance de 3000 kW/ha sera exigée durant quelques jours par an pour passer les pointes de froid hivernales.
Il y a donc au minimum un facteur 6 entre la puissance thermique installée en chaufferie et la puissance thermique suffisant à produire le gaz carbonique.
Une chaufferie bien conçue pour la production de gaz carbonique comportera deux chaudières fonctionnant en cascade. L'une fonctionne prioritairement pour les besoins en gaz carbonique et l'autre vient en complément pour assurer les besoins thermiques. Dans la pratique, on trouve fréquemment des chaufferies équipées de deux chaudières de puissance similaire (1500 kW/ha chacune), équipées de brûleurs modulants.
Nous conservons toutefois le principe d'une chaudière de base produisant le gaz carbonique et d'une chaudière assurant la modulation thermique.
En équipement complémentaire, on trouvera des ballons de stockage d'eau chaude. En effet, la photosynthèse se fait en présence de lumière, donc le jour.
Or, la serre, qui est un capteur d'énergie, voit par conséquent ses besoins thermiques diminuer le jour. Pour permettre les injections de gaz carbonique, les chaudières fonctionnent le jour sans demande énergétique et l'eau chaude produite est stockée dans un ballon.
Cette eau chaude sera restituée préférentiellement la nuit lors d'une demande thermique. Le stockage d'eau chaude permet donc à la fois d'optimiser les besoins en gaz carbonique et la demande énergétique de la serre.
Exemple concret de l'utilisation du gaz carbonique
Faisons une comparaison de trois types d'installations existantes (voir tableau ci-dessus):
- serre sans équipement d'injection de gaz carbonique - serre équipée pour l'injection de gaz carbonique sans stockage d'eau chaude - serre équipée pour l'injection de gaz carbonique avec stockage d'eau chaude.
Ces chiffres méritent quelques explications.
Tout d'abord, les dépenses énergétiques sont plus importantes lorsqu'on injecte du gaz carbonique sous serre. L'écart de 16 % d'énergie supplémentaire entre une serre sans gaz carbonique et une serre avec gaz carbonique est dû à la pratique du minimum tuyau, c'est-à-dire que nous conservons une température d'eau de chauffage de l'ordre de 30 à 35°C en permanence pour faire fonctionner la chaudière et donc injecter du gaz carbonique.
Par contre, on note un écart thermique de 3 % entre une serre avec gaz carbonique et une serre avec gaz carbonique plus stockage d'eau chaude.
Cet écart est dû aux déperditions thermiques du stockage d'eau chaude.
On constate donc qu'un stockage d'eau chaude n'engendre pas de sur-consommation d'énergie, mais permet d'injecter plus de gaz carbonique dans les serres puisque dans ce cas on découple le fonctionnement de la chaudière en l'activant le jour.
Simulation de la réduction énergétique Supposons des besoins en chauffage de 330 kWh/m²/an. L'année n+1, je m'engage a réduire ma consommation de 10 %, comme le prévoit la loi c'est-à-dire que je décide de dépenser 297 kWh/m2/an en posant par exemple des écrans thermiques ou en choisissant une variété moins exigeante en température. La réduction correspondante de gaz consommé atteint alors 3 m³, soit 6 kg de gaz carbonique (équivalent à 33 kWh/m²/an). C'est ce que prévoit la loi pour une serre sans gaz carbonique.
Or, si l'on injecte du gaz carbonique sous serre, la comparaison précédente montre que l'on a certes augmenté les dépenses énergétiques à 323 kWh/m²/an, mais l'on a ramené les rejets de gaz carbonique dans l'atmosphère à 44,3 kg (58,8 – 14,5 kg), soit en dessous de la réduction prévue par la loi. Dans ce cas, l'objectif est déjà atteint et l'on peut faire beaucoup mieux avec un stockage d'eau chaude.
La serre sans injection de gaz carbonique peut être comparée à n'importe quelle entreprise qui consomme de l'énergie pour ses besoins spécifiques. Et les serristes disposent des moyens de mettre en avant les installations ou équipements spécifiques réalisés pour utiliser au mieux le gaz carbonique et par là-même, limiter les rejets dans l'atmosphère.
Tous les chiffres mentionnés dans cet article ont fait l'objet d'une étude menée par Gaz de France en collaboration avec l'AIREL de Sainte-Livrade région Sud-Ouest et une journée Top Gaz en mars 1998. Intervenants: M.Tchamitchian, INRA-Avignon, Intérêts agronomiques du gaz carbonique, M.Leroy, expert gaz industrie Gaz de France, Maîtrise des installations, I . Bertrand, direction de recherche Gaz de France, Stockage eau chaude, F.Carmelez, AIREL, gestion du gaz carbonique sous serre, conduite des facteurs climatiques, résultats agronomiques.
----------------------- PS: Je n'ai pu faire figurer les exposants de l'indice pour méthane THquatre, le pavé ci-dessus ne les acceptant PAS !
BOMBSHELL: un audit des données sur le réchauffement climatique révèle de nombreuses erreurs
Anthony Watts 7 octobre 2018
Juste avant un nouveau rapport du GIEC, appelé SR # 15 sur le point d'être publié aujourd'hui, nous avons cette bombe. Un audit détaillé montre que les données de température de surface ne sont pas adaptées. Le premier audit jamais réalisé sur l’ensemble de données de température le plus important au monde (HadCRUT4) a révélé que celui-ci était tellement encombré d’erreurs et de «données étrangement improbables» qu’il était effectivement inutile.
Du GIEC:
Réchauffement de la planète à 1,5 ° C, rapport spécial du GIEC sur les impacts du réchauffement de la planète de 1,5 ° C par rapport aux niveaux préindustriels et les voies associées d'émission de gaz à effet de serre, dans le cadre du renforcement de la réponse mondiale à la menace du changement climatique, durable développement et des efforts pour éliminer la pauvreté.
C’est ce que la science consensuelle vous apporte - une pensée de groupe sans contrôle de la qualité.
HadCRUT4 est le principal ensemble de données sur la température mondiale utilisé par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) pour formuler ses affirmations dramatiques sur le «réchauffement planétaire provoqué par l'homme». C’est aussi l’ensemble de données au centre de «ClimateGate» de 2009, géré par l’Unité de recherche sur le climat (CRU) de l’Université d’East Anglia.
L’audit a mis en évidence plus de 70 domaines de préoccupation concernant la qualité et l’exactitude des données.
Selon une analyse du chercheur australien John McLean, il est beaucoup trop maladroit pour être pris au sérieux, même par les climatologues, et encore moins par un organisme aussi influent que le GIEC ou par les gouvernements du monde.
…
Points principaux:
Les données Hadley sont l’une des bases de données les plus citées et les plus importantes pour la modélisation du climat et, partant, pour les politiques de plusieurs milliards de dollars.
McLean a trouvé des données étrangement improbables, des erreurs d’ajustement systématiques, des lacunes importantes en l’absence de données, des erreurs de localisation, des températures en Fahrenheit rapportées en Celsius et des fautes d’orthographe.
Presque aucun contrôle de la qualité n'a été effectué: les erreurs aberrantes, qui sont des erreurs évidentes, n'ont pas été corrigées - une ville de Columbia a passé trois mois en 1978 à une température moyenne de plus de 80 degrés Celsius. Une ville de Roumanie est sortie de l'été 1953 de suite dans un mois de printemps à moins 46 ° C. Ce sont supposément des températures «moyennes» pour un mois complet à la fois. Saint-Kitts, une île des Caraïbes, a été enregistrée à 0 ° C pendant un mois et deux fois!
Les températures pour l’ensemble de l’hémisphère Sud en 1850 et pour les trois prochaines années sont calculées à partir d’un seul site en Indonésie et de quelques navires choisis au hasard.
La température de la surface de la mer représente 70% de la surface de la Terre, mais certaines mesures proviennent de navires enregistrés à 100 km à l’intérieur des terres. D'autres se trouvent dans des ports à peine représentatifs de la haute mer.
Lorsqu'un thermomètre est déplacé sur un nouveau site, l'ajustement suppose que l'ancien site a toujours été construit et «chauffé» par le béton et les bâtiments. En réalité, le réchauffement artificiel s'est probablement introduit lentement. En corrigeant les bâtiments qui n'existaient probablement pas en 1880, les anciens enregistrements sont refroidis artificiellement. Des ajustements pour quelques modifications de site peuvent créer un siècle de tendances au réchauffement artificiel.
Pour les mois d'avril, juin et juillet 1978, Apto Uto (Colombie, ID: 800890) avait une température moyenne mensuelle de 81,5 ° C, 83,4 ° C et 83,4 ° C respectivement. La température moyenne mensuelle en septembre 1953 à Paltinis, en Roumanie, était de -46,4 ° C (les autres années, la moyenne de septembre était d'environ 11,5 ° C). À l’aéroport de Golden Rock, sur l’île de Saint-Kitts, dans les Caraïbes, les températures moyennes mensuelles pour les mois de décembre 1981 et 1984 sont rapportées à 0,0 ° C. Mais entre 1971 et 1990, la moyenne des autres années était de 26,0 ° C. Plus à Jo Nova
Le rapport:
Malheureusement, le rapport est paywalled. La bonne nouvelle est que c’est seulement 8 $.
Le chercheur, John McLean, a effectué tout le travail par lui-même. C'est donc un moyen de se faire payer pour le temps et les efforts consacrés. Il écrit:
Ce rapport est basé sur une thèse pour mon doctorat, qui a été décernée en décembre 2017 par l'Université James Cook, Townsville, Australie. La thèse1 était basée sur le jeu de données HadCRUT4 et les fichiers associés tels qu'ils étaient à la fin de janvier 2016. La thèse a identifié 27 problèmes liés au jeu de données.
Les versions de janvier 2018 des fichiers contenaient non seulement des mises à jour pour les 24 mois précédents, mais également des stations d'observation supplémentaires et les modifications consécutives de l'anomalie mensuelle de la température moyenne globale jusqu'au début des données, en 1850.
Le rapport utilise les données de janvier 2018 et révise et étend l'analyse effectuée dans la thèse initiale, omettant parfois des problèmes mineurs, divisant parfois les problèmes majeurs et analysant parfois de nouveaux domaines et rendant compte de ces résultats.
La thèse a été examinée par des experts extérieurs à l'université, révisée en fonction de leurs commentaires et ensuite acceptée par l'université. Ce processus était au moins équivalent à une «évaluation par les pairs» telle que conduite par des revues scientifiques.
J'ai acheté une copie et j'ai reproduit le résumé ci-dessous. J'exhorte les lecteurs à acheter une copie et à soutenir ce travail.
Obtenez-le ici:
RÉSUMÉ
Autant que l'on puisse en juger, il s'agit du premier audit du jeu de données HadCRUT4, le principal jeu de données de température utilisé dans les rapports d'évaluation du climat du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Les gouvernements et la Convention-cadre des Nations Unies sur les changements climatiques (CCNUCC) sont fortement tributaires des rapports du GIEC. Par conséquent, les données de température doivent être précises et fiables.
Cet audit montre que ce n'est ni l'une ni l'autre de ces choses.
Plus de 70 problèmes ont été identifiés, couvrant l’ensemble du processus, depuis la mesure des températures jusqu’à la création de l’ensemble de données, en passant par les données (telles que les moyennes) et sa publication éventuelle. Les constatations (présentées à l’annexe 6, sous forme consolidée) incluent même de simples problèmes de données manifestement erronées, une faible densité de données dissimulée, des hypothèses importantes mais douteuses et des données de température mal ajustées de manière à exagérer le réchauffement.
On y trouve, par exemple, une station d’observation signalant des températures mensuelles moyennes supérieures à 80 ° C, deux cas d’une station dans les Caraïbes rapportant des températures moyennes de 0 ° C en décembre, et une station roumaine indiquant une température moyenne de -45 ° C en septembre. La température moyenne au mois de novembre est de 10 ° C. De plus, certains navires qui ont mesuré la température de la mer ont indiqué que leur emplacement était à plus de 80 km à l'intérieur des terres.
Il semble que les fournisseurs de données sur la température de la terre et la température de la mer n’aient pas vérifié les erreurs de base et que les personnes qui ont créé le jeu de données HadCRUT ne les aient pas trouvées et ne se soient pas posé de questions.
Le traitement qui crée le jeu de données supprime certaines erreurs, mais il utilise un seuil défini à partir de deux valeurs calculées à partir d’une partie des données, mais les erreurs n’ont pas été supprimées avant le calcul des deux valeurs.
La fragmentation des données est un réel problème. L'ensemble de données commence en 1850, mais depuis un peu plus de deux ans au début de l'enregistrement, les seules données terrestres pour l'ensemble de l'hémisphère sud proviennent d'une seule station d'observation en Indonésie. Au bout de cinq ans, seules trois stations ont communiqué des données dans cet hémisphère. Les moyennes mondiales sont calculées à partir des moyennes de chacun des deux hémisphères. Ces quelques stations ont donc une grande influence sur ce qui est censé être «mondial». La quantité de données est liée au pourcentage du monde (ou de l’hémisphère) couvert par les données. Selon la méthode de calcul de la couverture pour l'ensemble de données, 50% de la couverture mondiale n'a été atteinte qu'en 1906 et 50% de l'hémisphère sud n'a pas été atteinte avant environ 1950.
En mai 1861, la couverture mondiale n’était que de 12 %, soit moins d’un huitième. Dans la plupart des années 1860 et 1870, l’essentiel de la soi-disant couverture mondiale provenait de l’Europe, de ses voies maritimes et de ses ports commerciaux, ne couvrant que 13 % environ de la surface de la Terre. Calculer des moyennes à partir de ces données et les qualifier de «moyennes globales», c'est étendre la crédulité.
Une autre conclusion importante de cette vérification est que de nombreuses températures ont été mal ajustées. L’ajustement des données vise à créer un enregistrement de la température qui aurait été obtenu si les stations et équipements d’observation actuels avaient toujours mesuré la température locale. Les ajustements sont généralement effectués lorsque la station est déplacée ou que ses instruments ou leur boîtier sont remplacés.
La méthode typique d'ajustement des données consiste à modifier toutes les valeurs précédentes du même montant. Appliquer cela à des situations qui ont changé progressivement (par exemple, une ville en expansion faussant de plus en plus la température réelle) est très erroné et laisse les données antérieures ajustées plus que prévu. Les stations d’observation peuvent être déplacées à plusieurs reprises et toutes les données précédentes étant ajustées à chaque fois, les données les plus anciennes peuvent être bien inférieures à leur valeur correcte et l’enregistrement de données complet indique une tendance au réchauffement exagéré.
La conclusion générale (voir chapitre 10) est que les données ne conviennent pas aux études globales. Les données antérieures à 1950 souffrent d'une faible couverture et très probablement de multiples ajustements incorrects des données de station. Les données depuis cette année ont une meilleure couverture, mais le problème des ajustements de données et une foule d'autres problèmes mentionnés dans l'audit restent en suspens.
Le calcul des températures correctes nécessiterait une énorme quantité de données détaillées, de temps et d’efforts, ce qui dépasse le cadre de cet audit et est peut-être même impossible. La conclusion principale de l’audit est toutefois que l’ensemble de données montre un réchauffement exagéré et que les moyennes mondiales sont beaucoup moins certaines que celles qui ont été annoncées.
L’audit a notamment pour conséquence que les modèles climatiques ont été ajustés pour correspondre à des données incorrectes, ce qui rendrait fausses leurs prévisions des futures températures et l’estimation de l’influence des températures sur l’être humain.
Une autre implication est que la proposition selon laquelle l'accord de Paris sur le climat adopterait les moyennes de 1850-1899 comme "indicatives" des températures préindustrielles est fatalement viciée. Pendant cette période, la couverture mondiale est faible - elle est en moyenne de 30% sur cette période - et de nombreuses températures terrestres risquent fort d'être trop ajustées et donc incorrectes.
Une troisième implication est que, même si l’affirmation du GIEC selon laquelle l’humanité aurait provoqué la majorité du réchauffement depuis 1950 est exacte, alors ce réchauffement sur une période de presque 70 ans pourrait bien être négligeable. La question se pose alors de savoir si l'effort et le coût pour y remédier ont un sens.
En fin de compte, cet auteur est d'avis que les données de HadCRUT4, ainsi que tous les rapports ou revendications qui en découlent, ne constituent pas une base crédible pour la politique gouvernementale en matière de climat ou pour des accords internationaux sur les causes supposées du changement climatique.
"Ils prétendent pouvoir changer/modifier le climat". Qu'est-ce que cette science ? Nous sommes tous sur Terre traversé de milliards de champs magnétiques. 'Nous', ce sont les humains, les animaux, les arbres, les fleurs, les graines ainsi que l'eau. Or, l'eau est présente partout. Il existe chaque jour des marées. Des marées basses et des marées hautes. Ce champs magnétique est créé par la lune. Mais, dites-moi, le pouvoir magnétique de cet astre s'arrête t-il aux océans ? Bien sûr que non et, nous subissons tous des 'marées' à l'intérieur-même de notre corps comme à l'extérieur.
Dans les projets HAARP, les effets sont dirigés vers le contrôle des nuages, c'est-à-dire sur l'eau qu'ils contiennent et qui peut être désagrégée comme concentrée et/ou déplacée. Effectivement là, nous ne pouvons qu'applaudir des deux mains à cette merveilleuse découverte qui peut enfin permettre d'arroser des terres arides et réguler les moussons comme les autres fortes pluies susceptibles de créer des inondations.
Autre présentation du traversement de notre corps par des ondes est - entr'autres - le téléphone. Si l'émetteur est placé par exemple à votre gauche et que vous téléphoniez en tenant le combiné du côté droit, les ondes ne vont pas contourner votre tête mais la traverser comme si elle n'existait pas ! D'où l'inventivité de se servir de ce moyen efficace pour... contrôler/modifier notre esprit. Par qui sont créée ces ondes a basses fréquences qui sont en nous et font que le matin nous nous levions, marchions, mangions ? Nous avons toujours pensé qu'elles étaient innées et que notre état d'esprit était propre à chacun de nous. Nous nous trompions. Si nous admirons, nous aimons, nous détestons telle ou telle personne, c'est peut-être aujourd'hui due à l'attitude des gouvernements dont sans le savoir en sommes devenus les esclaves dociles et bien incapables de dire 'non'.
Qu'en est-il du degré d'acceptabilité de telles intrusions dans notre vie privée ? D'ailleurs, pourquoi n'en parlent-ils pas en débats nationaux ?
Ces 'nouvelles technologies' bien secrètes abordent un sujet dont nous n'en avons connaissances profondes, certes, mais dont les avantages immédiats nous échappent ! Et plus encore, les modifications climatiques intervenues nous portent à réflexions. A voir les structures montées de la fameuse arnaque du 'Global Warming' et de son Copenhagate 2009, il semblerait qu'elles soient plutôt dirigées contre nous. Ainsi, pour couvrir cette maléfique mise-en-place ont-ils dû se servir de stratagèmes contestés par les plus imminents scientifiques climatologues. Stratagèmes des "gaz a effet de serre" comme celui du poison sorti de notre bouche ! Encore eut-il fallu en débattre !
Mais là encore, les escrocs ne parlent que par journaux interposés.
Qui parle de l'arme scalaire, des chemtrails et du pétrole abiotique connaît les clés de ce monde, mais, à part de fermer Internet (empêchement de parler) rien d'autre aujourd'hui n'est présent à l'actualité. Pensez-vous encore que quelqu'un qui voudrait vous tuer vous en avertirait à l'avance ?
1er octobre 2018 : toutes les assurances officiellement en concurrence !
Serait-ce la fin du monopole de la Sécurité sociale ?
Par Jean-Nicolas Boullenois. 7 OCTOBRE 2018
La directive 2016/97 du 20 janvier 2016 qui devait initialement s’appliquer au 23 février 2018, a vu sa date de transposition reportée au 1er juillet 2018, et sa date d’application au 1er octobre 2018.
Cette directive concerne la « distribution d’assurances », qu’elle soit assurée par les assurances elles-mêmes, ou par des intermédiaires (courtiers).
Dans ses considérants, cette directive réaffirme
la nécessité de « conditions de concurrence équitables entre distributeurs » (considérant 6), la nécessité de « renforcer encore le marché intérieur et de promouvoir un véritable marché intérieur des produits et services d’assurance vie et non-vie » (considérant 9), l’exigence, afin « d’éviter des cas de vente abusive », que « la vente de produits d’assurance soit toujours accompagnée d’une évaluation des exigences et des besoins réalisée à partir des informations obtenues auprès du client » et que tout produit d’assurance proposé au client soit « cohérent avec les exigences et les besoins de ce dernier et présenté sous une forme compréhensible, afin de permettre au client de prendre une décision en connaissance de cause » (considérant 44),
l’exigence de « fournir au client une recommandation personnalisée expliquant pourquoi un produit particulier correspondrait le mieux à ses exigences et à ses besoins en matière d’assurance » (considérant 45).
que « les politiques de rémunération pratiquées par les distributeurs de produits d’assurance vis-à-vis de leur personnel ou de leurs représentants n’entravent pas leur capacité à agir au mieux des intérêts des clients, ni ne les dissuadent de faire une recommandation adaptée ou de présenter l’information de manière impartiale, claire et non trompeuse » (considérant 46).
Elle prévoit enfin, avant la conclusion d’un contrat, la remise au client d’un document d’information normalisé (considérant 48).
Cette directive s’applique aux « assurances collectives », en particulier aux « régimes de retraite professionnelle obligatoire » (considérant 49). Dans ce cas, il est prévu, si un salarié est affilié sans avoir pris personnellement la décision d’y adhérer, que « les informations lui soient fournies sans tarder après son affiliation au régime en question » (article 22).
Mais le plus intéressant est que, contrairement aux troisièmes directives assurances de 1992 (directives 92/49) et 92/96, abrogées et remplacées respectivement par les directives 2009/138 dite Solvabilité II et 2002/83 , cette directive 2016/97 n’exclut pas de son champ d’application les « assurances comprises dans un régime légal de sécurité sociale » !
Le document d’information normalisé, IPID (Insurance Product Information Document), prévu à l’article 20, a été précisé par le règlement d’exécution 2017/1469, avec un modèle type de présentation. Ses rubriques sont les suivantes :
« De quel type d’assurance s’agit-il ? » « Qu’est-ce qui est assuré ? » « Qu’est-ce qui n’est pas assuré ? » « Y a-t-il des exclusions à la couverture ? » « Où suis-je couvert(e) ? » « Quelles sont mes obligations ? » « Quand et comment effectuer les paiements ? » « Quand commence la couverture et quand prend-elle fin ? » « Comment puis-je résilier le contrat ? »
On voit mal comment la France pourrait faire échapper les « assurances comprises dans un régime légal de sécurité sociale » à l’application de cette directive, alors qu’une telle exclusion n’est de toute évidence pas prévue, sauf à prétendre, à la manière de Magritte (« Ceci n’est pas une pipe »), que l’assurance maladie ou l’assurance vieillesse ne sont pas des assurances.
Mais même si par extraordinaire le gouvernement tentait une nouvelle entourloupe, la large ouverture à partir du 1er octobre à la commercialisation sur le marché français de contrats d’assurances par des courtiers établis dans d’autres pays membres rendra inévitable l’application en France de la jurisprudence introduite par le TUE dans son arrêt du 5 février 2018 concernant la Slovaquie, selon laquelle
la circonstance que l’offre de biens et de services soit faite sans but lucratif ne fait pas obstacle à ce que l’entité qui effectue ces opérations sur le marché soit considérée comme une entreprise, dès lors que cette offre se trouve en concurrence avec celle d’autres opérateurs qui poursuivent un but lucratif.
Les jours du monopole de la Sécurité sociale sont donc comptés, et personne ne regrettera ce monstre soviétique tentaculaire qui ruine la France et les Français depuis des décennies !
#DataGate ! Le tout premier audit des données de température globale révèle des îles tropicales en train de geler, des villes en ébullition et des bateaux
RépondreSupprimerOctober 7th, 2018
A quoi pensaient-ils ?
Le destin de la planète est en jeu, mais l'ensemble des données de température clés utilisées par les modèles de climat contient plus de 70 types de problèmes différents. Des milliards de dollars ont été dépensés à cause des prévisions basées sur ces données - et pourtant, même les contrôles de contrôle de la qualité les plus élémentaires pour bébés n'ont pas encore été effectués.
Grâce au Dr John McLean, nous voyons comment les demandes du GIEC pour de l'argent reposent sur des données fantaisistes, des champs vides, des temps Fahrenheit enregistrés en Celsius, des erreurs de longitude et de latitude, des ajustements brutaux et même des fautes d'orthographe.
Pourquoi. Pourquoi. Pourquoi cela n’at-il pas été fait il y a des années ?
Cela casse la façade. Comment les personnes soucieuses du climat peuvent-elles être aussi bâclées et amateurs avec les données ?
HadCrut4, température globale, 1850 - 2018. Graphique.
HadCrut4 Global Temperature, 1850 - 2018.
Absurdité partout dans les données du Hadley Met Center
Il existe des cas d'îles tropicales enregistrant une moyenne mensuelle de zéro degré - il s'agit de la moyenne des hauts et des bas quotidiens du mois. Un site en Colombie a enregistré trois mois à plus de 80 degrés C. C’est si incroyablement chaud que même les plus petits d'entre eux étaient probablement plus chauds que le jour le plus chaud de la planète. Dans certains cas, les bateaux sur la terre ferme ont apparemment enregistré des températures océaniques allant jusqu'à 100 km à l'intérieur des terres. Une place en Roumanie a passé un mois entier avec une moyenne de moins 45 degrés. La seule explication qui puisse avoir un sens est que les températures en degrés Fahrenheit ont été confondues avec Celsius et que, pendant les soixante-dix années à venir au CRU, personne n’a remarqué.
Le Dr McLean a vérifié les données globales de HadCrut4 à partir de 1850 pour sa thèse de doctorat, puis l'a poursuivie jusqu'à ce qu'elle soit complète:
«Je suis consterné de constater que rien n’a été fait pour supprimer les valeurs absurdes… toute l’approche de la création du jeu de données est imprudente et amateur, à la hauteur du niveau d’un étudiant universitaire de première année.»
- John McLean
Son supérieur hiérarchique était Peter Ridd, réputé limogé pour avoir déclaré que «la science n’était ni vérifiée, ni testée, ni reproduite» et pour avoir laissé entendre que nous ne pourrions peut-être pas faire confiance à nos institutions.
Les données sont incroyablement effrontées
L'équipe du Hadley Met Center n'a même pas analysé ces données avec un outil aussi sérieux qu'un correcteur orthographique.
Pendant deux ans, la température totale de l'hémisphère sud a été estimée à partir d'un seul site terrestre en Indonésie et de certaines données relatives aux navires. Nous n’avons pas eu une couverture mondiale de 50 % avant 1906. Nous n’avons pas toujours eu une couverture de 50 % dans l’hémisphère Sud jusqu’en 1950 environ.
Les conclusions de McLean montrent qu’il n’existe pratiquement aucun contrôle de la qualité de ces données cruciales. L'équipe du Hadley Met Center n'a même pas analysé ces données avec un outil aussi sérieux qu'un correcteur orthographique. Les pays comprennent «Venezuela», «Hawaai» et la «République de K» (également connue sous le nom de Corée du Sud). Un pays est «inconnu» alors que d'autres ne sont même pas des pays - comme «l'Alaska».
RépondreSupprimerLa faute réelle des instituts modernes n'est pas tant le manque de données historiques, mais la façon dont ils "vendent" les tendances et les enregistrements comme s'ils étaient hautement certains et significatifs.
- voir graphique sur site -
HadCrut4, Températures de l'hémisphère sud, graphique, 1850-2018.
HadCrut4, Températures de l'hémisphère sud, 1850-2018.
Il y a des problèmes systématiques et de grande portée
Le jeu de données HadCRUT4 est une production conjointe du Hadley Centre du Met Office britannique et de l’unité de recherche sur le climat de l’Université d’East Anglia.
Les données CRU couvrent 10 295 stations, mais 2 693 - plus du quart - ne répondent pas aux critères d’inclusion décrits dans Jones et al 2012, qui sont considérés comme la meilleure description de ce qui devrait ou ne devrait pas être inclus.
Il est impossible de savoir exactement quels sites sont inclus dans l’analyse finale de la température et si les enregistrements d’un site ont été ajustés. (Si seulement nous pouvions faire nos déclarations de revenus comme ça?)
Les sous-parties des jeux de données se contredisent. L’ensemble terrestre et maritime devrait se combiner pour devenir l’ensemble mondial, mais ils ne correspondent pas toujours. Lequel a raison ?
«Il semble qu'aucune des deux organisations n'ait correctement vérifié les données de température de la terre ou de la mer avant de les utiliser dans le jeu de données HadCRUT4. Si cela avait été vérifié, le CRU aurait peut-être interrogé les erreurs les plus évidentes dans les données fournies par différents pays. Le Centre Hadley aurait peut-être également constaté certaines incohérences dans les données de température de surface de la mer, ainsi que des erreurs qu'il aurait créées en copiant les données à partir des journaux de bord manuscrits de certains navires de la Royal Navy. "
- John McLean
Refroidir les cent dernières années ?
Probablement la pire erreur systématique, le passé est réécrit pour tenter de corriger les déplacements du site. Bien que certaines corrections soient nécessaires, ces ajustements sont brutaux. Les thermomètres doivent être déplacés, mais les corrections ne nécessitent pas de traiter les anciens sites comme s’ils étaient toujours entourés de béton et de briques.
Les nouveaux sites originaux sont généralement placés dans de bons sites ouverts. Au fur et à mesure que le site "vieillit", des bâtiments et des routes apparaissent à proximité, et parfois des climatiseurs, réchauffent artificiellement le site. Donc, un thermomètre de remplacement est ouvert dans un endroit ouvert à proximité. Habituellement, chaque centre météorologique national distinct compare les deux sites pendant un certain temps et calcule la différence de température entre eux. Ensuite, ils ajustent les lectures des anciens emplacements pour les faire correspondre aux nouveaux. Le problème est que les algorithmes séparent également les anciennes lectures originales au cours des décennies, même les lectures qui ont probablement été prises lorsque le site n'était qu'un enclos. De cette façon, le passé historique est réécrit pour être plus froid qu'il ne l'était réellement, ce qui rend le réchauffement récent plus rapide qu'il ne l'était réellement. Des milliers d'hommes et de femmes se traînaient dans la neige, la pluie et la boue pour supporter les températures qu'un ordinateur aurait «corrigées» un siècle plus tard.
Nous avons constaté les effets des changements de sites en Australie à Canberra, Bourke, Melbourne et Sydney. Après avoir été martelé par la presse australienne (grâce à Graham Lloyd), la BOM a finalement désigné un «déménagement de site» comme étant la principale raison pour laquelle une tendance au refroidissement avait été ajustée à une tendance au réchauffement. En Australie, les ajustements apportés aux données augmentent la tendance jusqu’à 40%.
RépondreSupprimerEn théorie, un thermomètre dans un enclos en 1860 devrait être comparable à un thermomètre dans un enclos en 1980. Mais les experts estiment que le plus âgé doit lire trop haut, car il se peut que quelqu'un ait construit un tarmac à côté de lui quarante ou quatre-vingts ans plus tard. . Cette erreur systématique, à elle seule, crée une tendance au réchauffement à partir de rien, changement par changement.
Pire encore, les ajustements sont cumulatifs. Les données les plus anciennes peuvent être réduites à chaque correction d’étape pour les déplacements de site. Ken Stewart a constaté que certains ajustements apportés aux anciennes données historiques australiennes effacent jusqu'à 2 ° C des températures les plus précoces. Nous n’avons eu que «théoriquement» 0,9C de réchauffement de ce siècle.
Chaque bureau national fournit les données «préréglées». Le Centre Hadley les accepte. Ça vérifie ? Est-ce que ça compte ?
Pas d'audits, pas de contrôles, peu importe.
Autant que nous puissions en juger, ces données clés n’ont jamais été auditées auparavant. (Quel genre d'audit laisserait ces erreurs flagrantes ?) Les finances de l'entreprise sont auditées régulièrement, mais lorsque les prévisions mondiales et des milliards de dollars sont sur la table, les scientifiques du climat se moquent de savoir si les données ont fait l'objet de contrôles de contrôle qualité de base ou sont cohérentes. ou même logique.
Vastes zones de mesures inexistantes
En mai 1861, la couverture mondiale, selon la méthode du système de grille utilisée par HadCRUT4, était de 12%. Cela signifie qu'aucune donnée n'a été rapportée pour près de 90% de la surface de la Terre. Malgré cela, on dit qu’il s’agit d’une «moyenne mondiale». Cela n'a aucun sens. L’anomalie de température moyenne mondiale est calculée à partir de données qui ne couvrent parfois que 12,2 % de la surface de la Terre », a-t-il déclaré. "Jusqu'en 1906, la couverture mondiale était inférieure à 50 % et la couverture ne dépassait pas 75 % avant 1956. C’est une grande partie de la surface de la Terre pour laquelle nous n’avons aucune donnée." - John McLean
Les données réelles du thermomètre sont ignorées
En 1850 et 1851, les données officielles pour l'hémisphère sud ne comprennent qu'un seul thermomètre en Indonésie et quelques bateaux aléatoires. (À l’époque, les données sur les navires couvraient environ 15 % des océans de la moitié méridionale du globe. Même le mot «couvre» ne signifiait qu’une mesure par mois dans une cellule de la grille, bien qu’il soit généralement plus complexe.) Parfois, des données peuvent être utilisées, mais ne le sont pas. C’est en partie le choix de toutes les organisations météorologiques nationales distinctes qui ne peuvent envoyer aucune donnée à Hadley. Mais le personnel de Hadley ne semble pas non plus s'inquiéter de la rareté des données ou de la possibilité d'effectuer des mesures au thermomètre mieux que rien.
Combien de vagues de chaleur ont-ils manquées ? Par exemple, le 6 février 1851, des archives de journaux indiquent que les températures à l’ombre atteignaient 117 ° F à Melbourne (47 ° C), 115 à Warnambool et 114 à Geelong. C'était le jour du Black Thursday MegaFire. La BOM australienne fait valoir qu'il ne s'agissait pas de thermomètres standard mais que, comparés aux bateaux de navigation intérieure, aux îles caribéennes gelées et à 80 ° C en Colombie, les données réelles sont certainement plus utiles que les estimations faites à partir de thermomètres distants de 5 000 à 10 000 km. Il me semble que plusieurs thermomètres non officiels corroborés à Melbourne pourraient être plus utiles qu'un seul thermomètre officiel en Indonésie.
RépondreSupprimerBien que l'ensemble de données Hadley n'évalue pas explicitement la température à Melbourne en 1850, il estime «l'hémisphère sud», «le globe» et Melbourne en fait partie. Par défaut, certaines hypothèses et estimations doivent être remplies pour combler les lacunes.
Dans quelle mesure le thermomètre indonésien et certaines données relatives aux navires sont-ils en corrélation avec les températures en Tasmanie, au Pérou ou au Botswana? Serait-il «plus précis» qu'un thermomètre réel, même à l'ombre mais pas dans un écran Stevenson? Vous et moi pourrions le penser, mais nous ne sommes pas «des experts».
Time les experts ont répondu à des questions difficiles.
Le rapport complet
La vérification de 135 pages avec plus de 70 constatations est disponible au prix de 8 $ chez Robert Boyle Publishing. Vous pouvez aider à soutenir des mois de travail que des organismes officiels auraient dû accomplir il y a des années.
————————————-
Frapper toujours fort - Le point de vue de James Delingpole:
Bilan: une alerte au réchauffement climatique basée sur des données "négligentes et amateurs"
Le rapport de McLean n’aurait peut-être pas été aussi embarrassant pour le GIEC. Lundi, elle publiera son résumé de 2018 pour les décideurs politiques, affirmant que la crise du réchauffement climatique est plus urgente que jamais. Mais ce que McLean nous suggère fortement, c’est que ces demandes sont fondées sur des données auxquelles on ne peut tout simplement pas se fier.
–Lire tout.
___________________________
Points principaux:
RépondreSupprimerLes données Hadley sont l’une des bases de données les plus citées et les plus importantes pour la modélisation du climat et, partant, pour les politiques de plusieurs milliards de dollars.
McLean a trouvé des données étrangement improbables, des erreurs d’ajustement systématiques, des lacunes importantes en l’absence de données, des erreurs de localisation, des températures en Fahrenheit rapportées en Celsius et des fautes d’orthographe.
Presque aucun contrôle de la qualité n'a été effectué: les erreurs aberrantes, qui sont des erreurs évidentes, n'ont pas été corrigées - une ville de Columbia a passé trois mois en 1978 à une température moyenne de plus de 80 degrés Celsius. Une ville de Roumanie est sortie de l'été 1953 de suite dans un mois de printemps à moins 46 ° C. Ce sont supposément des températures «moyennes» pour un mois complet à la fois. Saint-Kitts, une île des Caraïbes, a été enregistrée à 0 ° C pendant un mois et deux fois!
Les températures pour l’ensemble de l’hémisphère Sud en 1850 et pour les trois prochaines années sont calculées à partir d’un seul site en Indonésie et de quelques navires choisis au hasard.
La température de la surface de la mer représente 70 % de la surface de la Terre, mais certaines mesures proviennent de navires enregistrés à 100 km à l’intérieur des terres. D'autres se trouvent dans des ports à peine représentatifs de la haute mer.
Lorsqu'un thermomètre est déplacé sur un nouveau site, l'ajustement suppose que l'ancien site a toujours été construit et «chauffé» par le béton et les bâtiments. En réalité, le réchauffement artificiel s'est probablement introduit lentement. En corrigeant les bâtiments qui n'existaient probablement pas en 1880, les anciens enregistrements sont refroidis artificiellement. Des ajustements pour quelques modifications de site peuvent créer un siècle de tendances au réchauffement artificiel.
Des détails douloureux sur les pires valeurs aberrantes
Pour les mois d'avril, juin et juillet 1978, Apto Uto (Colombie, ID: 800890) avait une température moyenne mensuelle de 81,5 ° C, 83,4 ° C et 83,4 ° C respectivement.
La température moyenne mensuelle en septembre 1953 à Paltinis, en Roumanie, était de -46,4 ° C (les autres années, la moyenne de septembre était d'environ 11,5 ° C).
À l’aéroport de Golden Rock, sur l’île de Saint-Kitts, dans les Caraïbes, les températures moyennes mensuelles pour les mois de décembre 1981 et 1984 sont rapportées à 0,0 ° C. Mais entre 1971 et 1990, la moyenne des autres années était de 26,0 ° C.
Les abréviations
HadCRUT4 est un jeu de données de température globale, fournissant des anomalies de température maillées à travers le monde ainsi que des moyennes pour les hémisphères et le globe dans son ensemble. CRUTEM4 et HadSST3 sont les composants terrestre et océanique.
REFERENCES
Jones, P. D., D. H. Lister, T. J. Osborn, C. Harpham, M. Salmon, and C. P. Morice (2012), Hemispheric and large-scale land-surface air temperature variations: An extensive revision and an update to 2010, J. Geophys. Res., 117, D05127, doi:10.1029/2011JD017139.
Climatic Research Unit : Data
h/t Tom Nelson for #DataGate.
http://joannenova.com.au/2018/10/first-audit-of-global-temperature-data-finds-freezing-tropical-islands-boiling-towns-boats-on-land/#more-60676
Les citoyens américains ont encore moins de liberté grâce à la prétendue ingérence électorale russe
RépondreSupprimerpar Tyler Durden
Samedi, 10/06/2018 - 22:00
Écrit par Mac Slavo via SHTFplan.com,
La marche des États-Unis vers le communisme complet est en bonne voie. Grâce à la prétendue ingérence électorale russe, les citoyens vivant dans ce qui n’était plus le pays des libertés depuis plus d’un siècle ont encore moins de libertés qu’il ne l’était il ya deux ans, selon un rapport.
Selon un organisme de contrôle indépendant qui mesure les droits politiques et les institutions démocratiques à travers le monde, les Américains ont désormais moins de liberté depuis l'élection de Donald Trump et à cause de la prétendue ingérence électorale russe, a rapporté Business Insider.
"La cote attribuée aux États-Unis en matière de droits politiques a diminué (...) en raison de preuves de plus en plus d'ingérence de la Russie dans les élections de 2016, de violations des normes éthiques de base par le nouveau gouvernement et d'une réduction de la transparence du gouvernement", selon Freedom House. Dans l’ensemble, le taux de liberté des États-Unis est passé de 89 à 86, alors que ses droits politiques sont passés de 36 à 33, selon le rapport annuel de Freedom House. Le «pays de la liberté» n'est que le 58ème pays le plus libre du monde, ce qui en fait une blague de prétendre même que nous sommes libres.
Selon le rapport, le mépris des normes éthiques par l’administration actuelle et le réchauffement de l’enquête russe sur l’ingérence électorale menée par Robert Mueller sont les raisons spécifiques pour lesquelles les citoyens américains sont devenus moins libres.
Pour ce qui est de défier les normes éthiques, Freedom House a expressément mentionné que Trump avait refusé de publier ses déclarations de revenus, "faisant la promotion de son empire privé" et "nommant sa fille et son beau-fils conseillers de la présidence".
Pour ce qui est de prendre des décisions politiques importantes avec peu de consultation et de transparence, Freedom House a mentionné l’arrêté de Trump de janvier 2017 interdisant à sept pays à majorité musulmane de se rendre aux États-Unis, ainsi que son ordonnance de juillet 2017 interdisant aux militaires transgenres de transgenres. -Interne du milieu des affaires
Lisez le rapport Freedom in the World 2018 de Freedom House ici et expliquez ici la liberté des États-Unis.
Cela ne veut pas dire que nous sommes ou non d'accord avec la manière dont Freedom House détermine le niveau de liberté, car les taux d'imposition (le vol du gouvernement et la violation la plus évidente des droits fondamentaux de l'homme) ne constituaient évidemment pas un facteur dans leur classement. Le nombre de services gouvernementaux que le public n'est pas obligé de financer, qu'il les utilise ou non, n'a pas non plus été pris en compte. Il semble qu'ils ne jugent que sur quelques couches très sociales. Mais lisez les rapports et voyez par vous-même.
https://www.zerohedge.com/news/2018-10-06/us-citizens-have-even-less-freedom-thanks-alleged-russian-election-meddling
Les états avec le plus (et le moins) des ventes d'opioïdes "légales"
RépondreSupprimerpar Tyler Durden
Samedi, 10/06/2018 - 20:00
Soumis par Priceonomics
Aujourd'hui, la crise des opioïdes en Amérique est devenue une catastrophe publique. La surdose de drogue, souvent due à l'abus d'opioïdes, est la nouvelle principale cause de décès chez les Américains de moins de 50 ans, dépassant ainsi les accidents de la route et les maladies cardiaques.
Ce qui est peut-être le plus choquant de la crise, c’est que sa cause est largement considérée comme l’abus et la prescription excessive d’analgésiques légaux, à savoir l’Oxycontin. Aujourd'hui, la consommation d'opioïdes ne se limite pas aux stupéfiants d'ordonnance à des drogues illégales (et parfois même mortelles) telles que l'héroïne et le fentanyl.
Étant donné le risque connu des médicaments opioïdes sur ordonnance, leurs ventes sont-elles à la hausse ou à la baisse en Amérique ? Et dans quels États les opioïdes légaux sont-ils vendus aux taux les plus élevés (et les plus bas) et comment cela se compare-t-il au taux de surdose de drogue ?
En collaboration avec le client de Priceonomics, Consumer Protect, nous avons décidé d'analyser les données gouvernementales relatives aux ventes de substances contrôlées fournies par la Drug Enforcement Agency, afin d'analyser les ventes d'opioïdes par habitant, par État et dans le temps.
Nous avons constaté que les ventes d'opioïdes ont aujourd'hui plus que doublé par rapport à 2000. Cependant, elles ont diminué de 28 % depuis 2010. Aujourd'hui, les États où les ventes d'opioïdes sont les plus élevées sont le Tennessee, l'Oklahoma et le Nevada. Les endroits où les ventes d'opioïdes sont les plus faibles sont Washington DC, le Minnesota et l'Illinois.
Nous avons constaté que le taux actuel de vente d'opioïdes était principalement décorrélé avec les surdoses de médicaments aujourd'hui. Cependant, nous avons constaté une relation beaucoup plus forte entre les ventes passées de 2010 et les niveaux actuels de surdose.
Autrement dit, où les ventes «légales» d'opioïdes d'ordonnance étaient élevées dans le passé, nous voyons aujourd'hui leurs conséquences sous la forme de surdoses de médicaments.
***
Pour donner un peu de contexte, examinons d’abord le taux de ventes légales d’opioïdes aux États-Unis au cours des deux dernières décennies. Les données sont fournies par la Drug Enforcement Agency, qui suit les ventes des deux principales variantes d'opioïdes d'ordonnance: l'oxycodone (Oxycontin, Percocet) et l'hydrocodone (Vicodin, Norco).
- voir liste sur site -
Entre 2000 et 2011, le taux de vente d'opioïdes pour 100 000 habitants aux États-Unis a plus que triplé, passant de 10,6 à 33,9. En 2011, toutefois, alors que les effets secondaires addictifs néfastes des drogues sont de mieux en mieux connus, la répression contre les «usines de médicaments sur ordonnance» a commencé.
Aujourd'hui, 24 000 kilogrammes d'opioïdes sont vendus pour 100 000 habitants en Amérique, soit plus du double de ce qu'ils étaient en 2000, mais 28 % de moins que le sommet de 2011.
Alors que la moyenne nationale en 2017 était de 24,4 kg d'opioïdes vendus par habitant, ce chiffre varie énormément d'un endroit à l'autre. Le graphique ci-dessous montre chaque État classé du plus petit au plus petit des opioïdes vendus.
RépondreSupprimer- voir liste sur site -
Dans le Tennessee, un État aux prises avec une grave crise des opioïdes affiche le plus haut taux de ventes de produits pharmaceutiques sur ordonnance opioïdes du pays. Au Tennessee, le nombre d'opioïdes vendus est près de deux fois supérieur à la moyenne nationale. L'Oklahoma et le Nevada complètent les trois États ayant le plus haut taux de vente d'opioïdes. Par ailleurs, le district de Columbia a le taux de vente d’opioïdes le plus bas du pays, suivi du Minnesota et de l’Illinois.
Au cours des deux dernières décennies, où les ventes d'opioïdes en Amérique ont-elles explosé le plus rapidement ? Les ventes d'opioïdes ont augmenté partout, mais dans certains États, elles ont augmenté beaucoup plus rapidement que d'autres.
- voir liste sur site -
Le Kansas se classe au premier rang des États ayant le taux de croissance des ventes d’opioïdes le plus élevé du pays, enregistrant une hausse de 259 % par rapport à l’année 2000. Les 10 États ayant enregistré la plus forte croissance des ventes d’opioïdes ont augmenté de plus de 200 %. Même à Washington, dans le Massachusetts et le Maine (États où la croissance est la plus faible), les ventes d'opioïdes ont augmenté d'environ 50 %.
Y a-t-il de bonnes nouvelles ? Eh bien, depuis le début de la décennie, le taux de vente d'opioïdes a diminué. Les graphiques suivants montrent les États qui ont le plus et le moins progressé dans la réduction des ventes de ces médicaments.
- voir grapjique sur site -
Au cours de cette décennie, des États comme la Floride, le Maine et le Delaware ont vu leur taux de vente d'opioïdes diminuer. Au cours de cette période, tous les États ont enregistré une réduction des ventes légales d'opioïdes, à l'exception de l'Idaho, du Wyoming et de l'Arkansas, où les ventes ont légèrement progressé.
***
Existe-t-il une relation entre le niveau des ventes d'opioïdes sur ordonnance et le nombre de surdoses de médicament? Ensuite, nous avons examiné les données de 2016 sur les surdoses de drogue compilées par la CDC par rapport aux ventes d'opioïdes.
Au début, nous avons comparé les ventes d’opioïdes aujourd’hui dans un État à son taux de mortalité et avons constaté qu’il avait une corrélation proche de zéro. Cependant, nous avons ensuite examiné le taux de mortalité d’aujourd’hui par rapport au taux de vente d’opioïdes sur ordonnance au début de la décennie, alors que les ventes atteignaient un sommet.
La prolifération d’opioïdes «légaux» dans le passé a-t-elle eu pour résultat un nombre plus élevé de décès dus à une surdose de drogue aujourd’hui? Le graphique suivant montre la relation:
While further analysis is required, we found a positive relationship between past legal opioid sales and fatal drug overdoses in 2016 (the most recent year the data is available). The data provides some credence to the thesis that legal sales of prescription drugs in the past helped hasten the dramatic crisis going on today. What’s more, this data highlights the magnitude of the opioid epidemic in places like West Virginia where the death rates from drugs are nearly off the chart.
***
L’épidémie actuelle d’opioïdes a été en grande partie catalysée par la prolifération de médicaments tels que l’Oxycontin dans les années 2000 et 2010.
RépondreSupprimerBien que les ventes de ce médicament aient récemment été maîtrisées, leur taux de vente continue d’être beaucoup plus élevé qu’il ya 20 ans, des États comme le Tennessee, l’Oklahoma et le Nevada affichant le taux de vente le plus élevé du pays. Dernièrement, l'Illinois, le Minnesota et Washington DC ont enregistré le plus faible taux de vente d'opioïdes.
Au cours de la dernière décennie, le taux de vente légale a ralenti dans tous les États, à l'exception de l'Arkansas, du Wyoming et de l'Idaho. Cependant, l'épidémie d'opioïdes s'est aggravée alors même que les médicaments sur ordonnance sont devenus plus difficiles à obtenir. Les prescriptions légales sont peut-être moins disponibles, mais les utilisateurs ont opté pour des drogues illicites telles que l'héroïne et le fentanyl, qui sont moins chères et plus meurtrières.
https://www.zerohedge.com/news/2018-10-06/states-most-and-least-legal-opioid-sales
Des câbles déclassés révèlent un plan américain pour Nuke Vietnam
RépondreSupprimerpar Tyler Durden
Samedi, 10/06/2018 - 15h30
Des documents récemment déclassifiés datant de l'ère vietnamienne révèlent que le plus haut commandant militaire des États-Unis à Saigon avait mis en place en 1968 un plan visant à placer des armes nucléaires au Sud-Vietnam, mais avait été rejeté par le président Lyndon B. Johnson, rapporte le New York Times.
Le commandant, le général William C. Westmoreland, préparait secrètement l'option nucléaire - préparer des plans pour disposer d'armes nucléaires au cas où les forces américaines se retrouveraient sur le point de se faire battre lors de la bataille de Khe Sanh - l'une des plus terribles batailles dans la guerre.
«Si la situation dans la zone démilitarisée devait changer radicalement, nous devrions être prêts à introduire des armes plus efficaces contre les forces massives», a écrit le général Westmoreland dans un câble déclassifié en 2014, mais qui n'a pas été révélé avant que M. Beschloss l'ait cité son prochain livre.
"Dans de telles circonstances, je visualise que des armes nucléaires tactiques ou des agents chimiques seraient des candidats actifs à l'emploi." -NY Times
Le plan d’utilisation des armes nucléaires, appelé Fracture Jaw, verrait l’utilisation d’armes nucléaires au Sud-Vietnam pour une utilisation à court préavis contre les troupes vietnamiennes. Il a été sabordé par LBJ après que le conseiller à la sécurité nationale de Johnson, Walt Rostow, ait alerté le président sur le plan dans un mémorandum.
Le président a immédiatement rejeté le plan et ordonné un retournement de situation, selon l'assistant présidentiel Tom Johnson, qui a pris des notes lors des réunions sur le sujet qui se sont tenues dans la salle à manger familiale située au deuxième étage de la Maison Blanche.
Le conseiller à la sécurité nationale de la Maison Blanche, Walt W. Rostow, a alerté le président Lyndon B. Johnson de son intention de transférer des armes nucléaires dans le Sud-Vietnam le même jour où le général William C. Westmoreland avait annoncé au commandant américain dans le Pacifique qu'il approuvait la décision. opération. (NYT)
"Quand il a appris que la planification avait été lancée, il a été extrêmement bouleversé et a envoyé un message fort à Rostow, et je pense directement à Westmoreland, pour le fermer", a déclaré Johnson Johnson dans une interview, ajoutant que LBJ était grandement préoccupé par une "guerre plus large" dans laquelle Pékin entrerait dans la mêlée comme ils l'avaient fait 18 ans auparavant en Corée.
"Johnson n'a jamais totalement fait confiance à ses généraux", a déclaré l'ancien assistant. "Il avait une grande admiration pour le général Westmoreland, mais il ne voulait pas que ses généraux mènent la guerre."
Si les armes avaient été utilisées, cela aurait ajouté aux horreurs de ce qui a été l’une des années les plus tumultueuses et les plus violentes de l’histoire américaine moderne. Johnson a annoncé des semaines plus tard qu'il ne se représenterait pas. Le révérend Martin Luther King Jr. et Robert F. Kennedy ont été assassinés peu de temps après.
L'histoire de la proximité des États-Unis en matière d'armes nucléaires au Vietnam, 23 ans après que les bombardements atomiques d'Hiroshima et de Nagasaki aient forcé le Japon à se rendre, est contenue dans «Presidents of War», un livre à paraître de Michael Beschloss, président historien. -NY Times
"Johnson a certainement commis de graves erreurs en participant à la guerre du Vietnam", a déclaré Breschloss, qui a découvert les documents en cherchant son livre. "Mais nous devons le remercier d'avoir veillé à ce qu'il n'y ait aucune chance, au début de 1968, que ce conflit tragique devienne nucléaire."
RépondreSupprimerJohnson - sachant que la bataille de Khe Sanh était imminente, a pressé ses chefs militaires de veiller à ce que les États-Unis ne subissent pas une défaite embarrassante, tandis que les forces nord-vietnamiennes lançaient tout dans leur arsenal contre deux régiments de marines des États-Unis et un petit nombre de troupes sud-vietnamiennes.
Et tandis que le général Westmoreland exprimait publiquement sa confiance en sa victoire, il organisait en privé un groupe qui se réunirait à Okinawa afin de déterminer comment transférer les armes nucléaires en Corée du Sud - et d'élaborer des stratégies pour les utiliser de manière stratégique contre les forces nord-vietnamiennes. .
«J'ai approuvé la fracture de la mâchoire Oplan», a écrit le général Westmoreland à l'amiral Ulysses S. Grant Sharp Jr., commandant américain dans le Pacifique, le 10 février 1968. (L'amiral a été nommé pour le général de la guerre civile et président, qui était marié à un ancêtre.) -NY Times
L'opération prévue «Fracture Jaw» visant à introduire des armes nucléaires dans le Sud-Vietnam devait être lancée dans le cadre de cette notification du 10 février 1968 du général Willam C. Westmoreland, commandant des forces américaines au Vietnam. (NYT)
Le plan de Westmoreland n'a pas duré longtemps. Le même jour que son mémorandum, Rostow a envoyé un mémorandum "pour les yeux seulement" à LBJ - sa deuxième de la semaine - avertissant du plan imminent. Deux jours plus tard, l'amiral Sharp a ordonné "d'interrompre toute planification pour Fracture Jaw" et de placer tout le matériel de planification, "y compris les messages et la correspondance s'y rapportant, sous sécurité positive".
«Interrompez toute planification pour Fracture Jaw», a ordonné l'amiral Ulysses S. Grant Sharp Jr., commandant des opérations américaines dans le Pacifique, dans un câble laconique daté du 12 février 1968. «La sécurité de cette action et des actions antérieures doit être garantie. étanche à l'air. "(NYT)
L'opération Fracture Jaw fait écho à d'autres moments où les présidents américains ont été forcés de considérer - ou de bluffer - l'utilisation d'armes nucléaires, notamment lors de la crise des missiles cubains de 1962. Auparavant, le général Douglas MacArthur avait exploré l'utilisation des armes nucléaires dans la guerre de Corée avant d'être limogé par le président Harry Truman, qui craignait que la stratégie agressive de MacArthur ne déclenche une vaste guerre avec la Chine. À un moment donné, il a cependant déplacé des ogives nucléaires vers des bases du Pacifique, bien qu'elles n'aient pas été placées en Corée même.
Mais le cas de Khe Sanh était différent, montrent les documents.
«En Corée, MacArthur n’a pas lancé d’appel direct au transfert immédiat des armes nucléaires sur le théâtre des opérations», lorsqu’il est apparu que la Corée du Sud risquait de tomber dans l’invasion du Nord en 1950, a déclaré M. Beschloss. "Mais au Vietnam, Westmoreland faisait pression sur le président pour faire exactement cela." -NY Times
Dans les quatre jours qui ont suivi la lettre de Westmoreland, l'amiral Sharp, commandant du Pacifique américain dans le Pacifique, a écrit qu'il avait été "informé du plan d'urgence pour l'emploi d'armes nucléaires tactiques dans la zone de Khe Sanh / DMZ, qui avait été rédigé par des membres de nos états-majors respectifs. semaine à Okinawa. " Il a déclaré qu'il était "conceptuellement valable" et a demandé qu'un plan complet lui soit transmis "de manière accélérée afin que les plans d'appui nécessaires puissent être élaborés".
RépondreSupprimerTrois jours plus tard, Westmoreland a répondu qu'il avait approuvé le plan, alors qu'à la Maison-Blanche, Rostow avait déclaré au président: "Il n'y a pas d'armes nucléaires au Sud-Vietnam. L'autorité présidentielle serait nécessaire pour les installer là-bas".
Cela a conduit à "l'éruption en colère" de LBJ sur le plan, et en quelques jours, Sharp a ordonné un arrêt.
L'ensemble du plan a été rédigé en secret et a été gardé des Marines américains et d'autres soldats à Khe Sanh.
«Je ne me souviens d'aucune discussion sur les armes atomiques sur le sol à Khe Sanh», a déclaré Lewis M. Simons, alors journaliste à Associated Press sur le terrain avec les troupes, et plus tard, un journaliste lauréat du prix Pulitzer ayant travaillé pour le Washington Post. et les journaux Knight Ridder. -NY Times
Selon l'ancien président du Comité des relations extérieures du Sénat, J. William Fulbright (D-AK), "nous avons tout simplement menti" et les mensonges avaient entraîné la perte d'une "forme de démocratie", selon les transcriptions.
https://www.zerohedge.com/news/2018-10-06/declassified-cables-reveal-us-plan-nuke-vietnam
Violences faites aux femmes: un millier de personnes répondent à l’appel de Muriel Robin
RépondreSupprimer22:42 06.10.2018
La femme qui porte plainte doit être sûre qu’elle sera prise en charge, a déclaré au micro de Sputnik Muriel Robin. Ce samedi, un millier de personnes ont répondu présent à l’appel de cette actrice française et se sont rassemblées devant l'ancien palais de justice de la capitale française pour dénoncer les violences faites aux femmes.
«Une victime qui se défend n’est pas une coupable», «Viol = crime contre l’humanité», pouvait-on lire sur leurs pancartes. Scandant «La justice!», plus d’un millier de personnes sont rassemblées ce 6 octobre devant l’ancien palais de justice de Paris en soutien aux femmes victimes de violences, dont conjugales. Parmi les manifestants, on pouvait voir la maire de Paris Anne Hidalgo ainsi que d’autres personnalités. Et bien évidemment celle qui a lancé l’appel, Muriel Robin.
Expliquant son initiative au micro de Sputnik, l’actrice souligne qu’il est indispensable que la femme qui porte plainte soit prise en charge.
«Si un système est mis en place et cette femme sait qu’elle n’aura pas peur et que le cauchemar s’arrêtera pour elle, elle parlera davantage. Mais, aujourd’hui, on sait comment la renvoyer chez elle», explique-t-elle à la correspondante de l’agence.
Un millier de personnes à Paris contre les violences faites aux femmes
Et de rappeler aux journalistes que sur 150 morts par an des mains du conjoint 123 sont des femmes et que ce nombre pourrait être considérablement réduit si une femme ne décédait pas tous les trois jours sous les coups de son conjoint.
https://fr.sputniknews.com/france/201810061038398792-rassemblement-contre-violences-conjugales-paris/
Est-il compris le crime de l'excision ?
SupprimerLe Brésilien "Donald Trump" remporte un "soutien écrasant" lors du vote au premier tour du président
RépondreSupprimerpar Tyler Durden
Dim, 10/07/2018 - 19:45
Mise à jour (19h45 HE): Après l’une des plus bizarres campagnes présidentielles de l’histoire du Brésil (il y avait à un moment un candidat emprisonné et un autre hospitalisé suite à une blessure mortelle), Jair Bolsonaro, le candidat de droite qui a adopté l'étiquette de "Donald Trump du Brésil" a dépassé même les attentes les plus roses.
Environ 90 minutes après la fermeture des derniers bureaux de vote dans les provinces les plus à l'ouest du pays, 95 % des votes ont été comptés. Le résultat: une victoire écrasante en faveur de Bolsonaro, qui a remporté 46,8 % des suffrages, selon la chaîne de télévision brésilienne Globo.
Cela signifie que, signe d'une bonne nouvelle pour les actions de Braziliang, la menace d'un virage à gauche ayant été évitée, Bolsonaro a surperformé même les sondages les plus optimistes et a presque remporté une victoire au premier tour. Mais comme la constitution brésilienne appelle à un second tour, si aucun candidat ne remporte la majorité absolue, il est prévu que Bolsonaro, ancien officier de l'armée et législateur fédéral, affrontera le candidat du parti des travailleurs, Fernando Haddad, ancien maire de Sao Paulo et Lula, dans un vote de second tour prévu pour le 28 octobre.
Le candidat de centre-gauche Ciro Gomes pourrait encore avoir une chance de dépasser Haddad lors du décompte final des votes, bien que, selon le FT, cette issue soit peu probable.
Accompagné d'une escorte armée, Bolsonaro - qui, il y a un mois, a été attaqué par un fanatique manier les couteaux - a voté dans une école d'une section militaire de Rio de Janeiro sous les applaudissements de ses partisans.
Les investisseurs s’attendent à une reprise des actions lundi matin, sachant que Bolsonaro était le candidat préféré du marché (son avance dans les sondages reflétait une hausse du real brésilien et d’Ibovespa), et il a conclu avec ce que l’on pense généralement mieux que ce que les marchés avaient prévu. Bloomberg a annoncé vendredi que certains investisseurs avaient accumulé des obligations sur Ibovespa afin de se protéger contre des positions plus faibles que prévu de Bolsonaro, qui s'est imposé comme le leader décisif après avoir été poignardé lors d'un dernier rallye de campagne. mois.
* * *
Les 147 millions d'électeurs brésiliens éligibles ont commencé à voter lors des élections fédérales de dimanche, ce qui aidera à décider qui remplacera le centriste farouchement impopulaire, Michel Temer, en tant que président du plus grand pays et de la plus grande économie d'Amérique du Sud (il déterminera également la composition du prochain congrès). gouvernorats, vice-gouvernorats et postes au gouvernement d’État).
Alors qu'aucun candidat ne devrait remporter une majorité absolue - ce qui signifie que les deux premiers candidats s'affronteront lors d'un vote au second tour le 28 octobre - le député fédéral Jair Bolsonaro, un candidat d'extrême droite qui a divisé le pays avec ses commentaires sympathiques à propos de La dictature militaire du Brésil, qui existe depuis 20 ans, a pris de l'avance dans les derniers sondages, certains affirmant que son soutien atteignait 44 %.
Cela signifie qu'après des années de gouvernement de gauche, suivies d'une brève période de centrisme timide, un homme qui a adopté l'étiquette "le Brésilien Donald Trump" est sur le point de remporter une élection présidentielle, amenant le mouvement populiste mondial anti-établissement en Amérique du Sud.
RépondreSupprimerUn sondage effectué le 3 octobre a révélé que Bolsonaro avait voté à 32 %, contre 22 % un mois plus tôt, après avoir été poignardé mortellement par le socialiste Bolsonaro, ancien parachutiste de l'armée brésilienne, lors d'un rassemblement. Bien que Bolsonaro ait perdu une quantité massive de sang, l’attaque a ironiquement contribué à galvaniser ses partisans. Bien qu'absent du vote présidentiel cette semaine, Bolsonaro a toujours dominé.
Bien entendu, l'électorat a embrassé un candidat populiste d'extrême droite dans un élan de nostalgie de la dictature militaire qui a dirigé le Brésil entre 1964 et 1985 n'est pas un hasard. Les maux sociaux auxquels sont confrontés les 210 millions de Brésiliens - qui vivaient il y a quelques années seulement une période de prospérité relative - sont innombrables et diffuse: le taux de chômage a grimpé en flèche à 12%, un déficit budgétaire béant, une mauvaise gestion économique et une corruption publique endémique ont ébranlé la confiance des investisseurs internationaux qui ont laissé le real brésilien s'effondrer. La criminalité est généralisée, avec plus de 63 000 meurtres l’an dernier, ce qui pousse les gens à aspirer à la stabilité sociale qui caractérisait jadis la vie du pays. Les écoles, les hôpitaux et les routes sont en mauvais état et sous-financés. Parce que ces facteurs, parmi d’autres (notamment son embarras dans un scandale de corruption, à l’instar de son prédécesseur, Dilma Roussef), le président brésilien Michel Temer est universellement méprisé, avec un taux d’approbation de 2 %.
Alors que le Parti des travailleurs de gauche présidait au dernier boom économique, il est également responsable de la chute du pays dans la spirale de la mort économique. Et l’enquête massive sur le «lavage de voiture» sur la corruption du géant énergétique Petrobras, scandale qui a conduit à la destitution de l’ex-présidente Dilma Roussef, a suscité un ressentiment généralisé à l’égard de la gauche brésilienne. Selon certaines mesures, l'ancien président Lula da Silva, l'homme politique le plus populaire du pays, empêchait de se présenter sous la bannière WP en raison de son emprisonnement pour corruption. Fernando Haddad, qui devance Bolsonaro dans les sondages et l’affrontera probablement lors du second tour, se présentera à la place de Lula après qu’un tribunal eut statué que celui-ci n’était pas éligible en raison d’une loi qu’il avait lui-même signée pendant sa présidence.
Bolsanaro est largement considéré comme le candidat pro-marchés et des signes de progrès dans les sondages ont renforcé le real brésilien ainsi que les actifs nationaux. Et malgré son passé de propos misogynes et homophobes, Bolsanaro continue de recevoir un large soutien parmi les femmes brésiliennes, à l'instar d'une femme d'affaires de Sao Paolo qui a partagé ses vues avec le WSJ.
"Le [Parti des travailleurs] a dévasté le pays", a déclaré Solange Correia, une femme d'affaires de São Paulo âgée de 58 ans, qui soutient avec enthousiasme M. Bolsonaro, l'un des rares hommes politiques brésiliens à ne pas être entaché de scandales, malgré ses 27 années de Congrès.
Bolsonaro a également décrié le processus électoral du Brésil, qui repose sur des machines à voter électroniques, comme étant profondément suspect et a déclaré, dans un commentaire qui faisait écho à celui prononcé par le président Trump lors de la campagne de 2016, qu'il rejetterait tout résultat où il ne serait pas vainqueur. Pour assurer l'équité, l'armée brésilienne déploie 28 000 soldats pour protéger les bureaux de vote, tandis que l'Organisation des États américains envoie des équipes d'observateurs indépendants.
Bien que l'économiste ait distingué Bolsonaro dans un article mettant en garde contre un retour à la dictature militaire du Brésil, il n'est pas le seul candidat à avoir exprimé sa sympathie et son soutien aux dirigeants autoritaires. Le Parti des travailleurs a exprimé son soutien aux hommes forts de gauche à Cuba et au Venezuela, par WSJ.
RépondreSupprimerDe nombreux Brésiliens craignent un retour de l'un ou l'autre candidat au régime autoritaire, compte tenu de la sympathie de M. Bolsonaro pour le régime militaire de 1964-1985 et du soutien manifesté par le parti de M. Haddad aux régimes d'hommes forts au Venezuela et à Cuba. Ces inquiétudes ont conduit le juge en chef Dias Toffoli à réclamer publiquement plus de retenue plus tôt dans la semaine, à l’occasion de l’anniversaire de la Constitution de 1988 du pays. "La dictature, plus jamais", a-t-il déclaré lors d'une session télévisée de la Cour suprême.
Certains universitaires ont affirmé que l'obsession actuelle du Brésil avec les dirigeants d'hommes forts avait atteint "le point de folie".
"Nous avons atteint un point de folie", a déclaré Boris Fausto, un historien brésilien qui, à 87 ans, a été témoin de deux longues dictatures au Brésil. "L'extrémisme a pris le dessus, en particulier la montée d'une extrême droite qui n'a aucun engagement en faveur de la démocratie."
C'est peut-être vrai, mais là encore, la colère ressentie par les Brésiliens semble être justifiée. Les lois électorales brésiliennes prescrivent le vote à tous les citoyens âgés de 18 à 70 ans. Ceux qui ne votent pas risquent de se voir infliger une petite amende et d'autres sanctions administratives. Pour les Brésiliens âgés de 16 et 17 ans, ou de 70 ans et plus, le vote est facultatif.
Étant donné que le Brésil est divisé en trois fuseaux horaires, les scrutins dans l'état occidental d'Acre ne fermeront pas avant 19 heures à Brasilia (18 heures à New York). Une fois le vote terminé, Bloomberg s'attend à ce que les résultats affluent rapidement. Dans le même temps, Bloomberg a annoncé que les investisseurs s'apprêtaient à acheter des positions sur Ibovespa pour se protéger contre une performance plus faible que prévu de Bolsonaro lors du vote de dimanche. S'il surpasse les attentes, attendez-vous à ce que les actions nationales se redressent dans un élan de repli.
https://www.zerohedge.com/news/2018-10-07/support-brazils-donald-trump-surges-general-election-voting-begins
(...) "La dictature, plus jamais", a-t-il déclaré lors d'une session télévisée de la Cour suprême. (...)
SupprimerDonc: La Démocratie !
(...) "L'extrémisme a pris le dessus, en particulier la montée d'une extrême droite qui n'a aucun engagement en faveur de la démocratie." (...)
Pareil qu'en France où l'extrême droite (qui se dit opposée à la gauche ! Hahaha !) est CONTRE la Démocratie (Suisse adaptée à la France !).
Pourquoi votre vote n'a pas compté depuis 1913
RépondreSupprimerpar Tyler Durden
Dim, 10/07/2018 - 19:20
Soumis par Joe Jervis du Daily Bell
“Pas de taxation sans représentation !”
C'était une phrase populaire au cours des décennies qui ont précédé la guerre d'indépendance. Les colons ont pensé qu'il était injuste d'être taxé et soumis à l'autorité anglaise sans consentement.
Aujourd'hui, Washington DC impose des lois et des taxes à chacun des 320 millions d'habitants des États-Unis.
Et tout comme sous la règle anglaise, nous ne sommes pas représentés au gouvernement fédéral.
Maintenant, je sais ce que vous pensez… nous avons le droit de voter pour nos dirigeants.
Nos votes envoient des représentants, des sénateurs et le président à Washington DC. Et ils représentent nos intérêts au gouvernement.
Les représentants des États-Unis sont élus par le peuple, répartis en districts.
Ils vont à Washington DC et composent la Chambre des représentants; une moitié du Congrès.
Le Congrès est l'ensemble du pouvoir législatif. Ils écrivent et adoptent toutes les lois des États-Unis.
Lorsque l'Amérique était nouvelle, chaque représentant venait d'un district d'environ 40 000 habitants.
Mais avec l'augmentation de la population américaine, le nombre de représentants au Congrès s'est limité à 435 personnes. Cela signifie également que le nombre de citoyens représentés par chaque membre a également augmenté…
Aujourd'hui, les représentants sont élus par districts d'environ 713 000 personnes en moyenne.
Cela signifie que nos votes pour le représentant des États-Unis sont environ 6 % aussi puissants qu'ils l'étaient lors de la fondation de l'Amérique.
(Je vais en fonction de la population totale et non de la population électorale pour garder les choses simples. Mais la même leçon s’applique si vous faites le calcul en vous basant sur la population électorale.)
Notre représentation à la Chambre des représentants a été diluée par 17.
Le Sénat américain constitue l’autre moitié du Congrès.
Les sénateurs sont élus par l'ensemble de la population de chaque État, avec un vote à la majorité simple.
Mais ce n’était pas supposé être comme ça.
Jusqu'en 1913, les sénateurs étaient élus par la législature de chaque État.
Chaque État a son propre congrès, à l'image du système américain. Vous votez pour les représentants des États et les sénateurs des États et ils dirigent le gouvernement de l'État.
Ce sont les membres du gouvernement de votre État qui ont élu des sénateurs américains à envoyer à Washington DC. Cela a donné la représentation des gouvernements des États à Washington DC.
Les citoyens contrôlaient donc la Chambre des représentants des États-Unis en votant directement pour qui les représenterait de leur district.
Et les gouvernements des États contrôlaient le Sénat américain par les assemblées législatives des États qui votaient pour qui représenterait l'État au sein du gouvernement fédéral.
RépondreSupprimerBien entendu, le peuple élit toujours les sénateurs et les représentants des États, qui ont ensuite élu les sénateurs américains.
Mais en 1913, le 17ème amendement autorisait le vote populaire dans chaque État pour élire les sénateurs américains. Donc, il est devenu une course à l'échelle de l'État, tout comme gouverneur.
On dirait que cela donne aux gens plus de voix au sein du gouvernement fédéral… mais en réalité, cela nous a donné BEAUCOUP moins de mot à dire.
Prenons la Louisiane comme exemple…
Par taille de population, Lousiana est l’état médian. La moitié des États ont une population plus grande et la moitié des États ont une population plus petite. Lousiana est smack dab au milieu.
La Louisiane compte au total 105 représentants d’État. Chaque représentant d’État est élu par un district d’environ 45 000 habitants.
39 sénateurs d'État sont élus par des districts d'environ 120 000 habitants chacun.
La population totale de la Louisiane est d'environ 4,7 millions.
Donc, dans une course au rang de sénateur américain, vous ne votez que sur 4 700 000.
Votre vote est 105 fois plus puissant dans une course de représentants de l’État (1/45 000 contre 1/4 700 000).
Cela compte 105 fois plus que votre vote pour le sénateur américain.
Votre vote est 39 fois plus puissant dans une course au Sénat d'un État (1/120 000 contre 1/4 700 000).
Cela compte 39 fois plus que votre vote pour le sénateur américain.
Mais imaginons que les représentants des États choisissent toujours le sénateur américain…
Il ou elle a 1 vote sur un total de 105 représentants.
Et le vote de votre sénateur compte pour 1 sur 39 sénateurs au total.
N'oubliez pas que votre vote pour les représentants des États et le Sénat des États compte… Dans ces petits districts, vous avez 105 fois plus de pouvoir que dans une course à l'échelle de l'État.
Donc, comparé à la course au Sénat américain, votre vote a BEAUCOUP plus de chances d'influencer 2 des 144 sièges de la législature (39 sénateurs + 105 représentants).
Si vos deux choix sont élus, vous avez choisi 1,4% des législateurs des États qui choisiront votre sénateur américain.
Mais votre vote pour le Sénat américain dans la course à l’état ne vous donne que 0,002 % de la personne élue sénateur américain.
Si vos choix d’État et de Sénat sont élus, vous avez 70 000 fois plus de contrôle sur le choix du sénateur US.
Mais que se passe-t-il si aucun de vos choix pour le représentant de l'État et le Sénat n'est élu ?
Cela signifie que vous avez 0 % de dire en qui est élu sénateur américain…
Ce qui est statistiquement égal à votre .00002 % dit que vous avez maintenant.
Ainsi, le pire scénario possible dans l'ancien système est statistiquement le même que le seul scénario du système actuel.
RépondreSupprimerVous avez 100 % de chances de ne pas avoir de voix dans le système actuel.
Mais lorsque les législateurs des États ont élu des sénateurs américains, vous avez beaucoup mieux pu faire entendre votre voix. Et quand vous avez eu cette voix, elle comptait pour beaucoup plus.
1913 était une mauvaise année…
Le système de la Réserve fédérale a été mis en place, renforçant ainsi le contrôle fédéral centralisé sur le système bancaire et monétaire…
Le 16e amendement a permis au gouvernement fédéral de percevoir des impôts sur le revenu, assurant ainsi un approvisionnement régulier en fonds publics importants…
Le 17ème amendement a enlevé le contrôle du Sénat aux gouvernements des États.
Vous pourriez dire que c'était le début d'une nouvelle États-Unis d'Amérique… qui ne ressemblait guère à l'ancienne structure.
C'était le début d'une taxation sans représentation… Le renversement complet de tout ce que les Américains ont combattu et réalisé pendant la révolution américaine.
Cela a commencé l'ère de l'empire américain. Un gouvernement centralisé, assez grand pour faire tout ce qu'il veut sans modération.
Trop grand pour que le peuple puisse contrôler grâce à la démocratie représentative.
Nous avons encore une chance d'être représentés dans les gouvernements des États. Mais la sécession est un sujet pour un autre jour…
Vous n'êtes pas obligé de respecter les règles des politiciens corrompus, des médias manipulateurs et des pairs qui ont subi un lavage de cerveau.
https://www.zerohedge.com/news/2018-10-06/why-your-vote-hasnt-mattered-1913-0
Même Joe Jervis qui se dit explicationneur de l'état de l'Amérique ne parle JAMAIS de Démocratie ! Hahahaha !
SupprimerSait-il ce qu'est la Démocratie ?
Le 'GIEC' = nano-groupuscule d'anti-scientifiques.
RépondreSupprimerLE GIEC TIRE LA SONNETTE D'ALARME
Le Giec estime que le monde doit prendre des mesures «sans précédent» s'il veut limiter le réchauffement climatique à 1,5°C.
GREENPEACE APPELLE LA SUISSE À SE «RÉVEILLER»
Greenpeace Suisse estime lundi que le rapport du GIEC sur le climat, appelant à engager des transitions sans précédent pour limiter la hausse du réchauffement à 1,5 degré, est un «signal d'alarme». La Suisse «est loin d'atteindre» les objectifs fixés à Paris, rappelle l'ONG. L'ONG appelle notamment à prendre des mesures supplémentaires dans le cadre de la Loi sur le gaz carbonique.
08.10.2018, 03h33
Le monde devra engager des transformations «rapides» et «sans précédent», s'il veut limiter le réchauffement climatique à 1,5°C, soulignent les experts climat de l'ONU (Giec), mettant en garde contre des risques accrus au-delà de ce seuil.
Dans un rapport de 400 pages, dont le «résumé à l'intention des décideurs politiques» est publié lundi, les scientifiques exposent les nombreux impacts déjà à l'oeuvre, et notamment la menace d'emballement au-delà d'1,5°C de réchauffement (par rapport aux niveaux pré-industriels): vagues de chaleur, extinctions d'espèces, ou déstabilisation des calottes polaires, source de montée des océans sur le long terme.
«Chaque petit accès de réchauffement supplémentaire compte, d'autant que passer 1,5°C accroît le risque de changements profonds voire irréversibles, comme la perte de certains écosystèmes», explique Hans-Otto Pörtner, co-président de cette session du Giec qui a réuni chercheurs et représentants des Etats toute la semaine dernière en Corée du sud.
Si le mercure continue de grimper au rythme actuel, sous l'effet des émissions de gaz à effet de serre, il devrait atteindre +1,5°C entre 2030 et 2052, note le rapport, basé sur plus de 6000 études. Et si les Etats s'en tiennent à leurs engagements de réduction d'émissions pris dans le cadre de l'accord de Paris en 2015, ce sera +3°C à la fin du siècle.
Alors que faire, tandis que 2017 a encore vu les émissions mondiales liées à l'énergie repartir à la hausse ? Pour le Giec, pour rester à 1,5°C, les émissions de gaz carbonique devront chuter drastiquement dès avant 2030 (-45% d'ici 2030) et le monde atteindre une «neutralité carbone» en 2050 (autrement dit il faudra cesser de mettre dans l'atmosphère plus de gaz carbonique qu'on ne peut en retirer). «Faisabilité» Villes, industries, énergie, bâtiment... tous les secteurs sont appelés à s'atteler à de «profondes réductions d'émissions»: rester à 1,5°C demandera «une transition rapide et de grande portée», d'une ampleur «sans précédent». Le Giec insiste sur l'énergie - charbon, gas, pétrole étant responsables des trois quarts des émissions. Et propose plusieurs scénarios chiffrés incluant différentes combinaisons d'actions.
«Le rapport donne aux décideurs politiques l'information qu'il leur faut pour prendre des décisions tout en considérant aussi les besoins des populations», explique la sud-africaine Debra Roberts, autre coprésidente de cette réunion. «Les années à venir seront les plus déterminantes de notre histoire», estime-t-elle. Pour sa collègue française, la climatologue Valérie Masson-Delmotte, également à Incheon, c'est «un constat lucide et difficile: la politique des petits pas ça ne suffit pas».
«Il nous dit "si on n'agit pas maintenant, on va vers un monde où on sera en permanence en gestion de crises"», dit-elle. «La bonne nouvelle est qu'il y a des actions en cours dans le monde, mais il faudrait les accélérer pour avoir des transitions douces. La vraie question de la faisabilité c'est celle-là: les gens sont-ils prêts à agir, et y aura-t-il assez de volonté politique collective ?»
RépondreSupprimer«Nous avons cherché à voir si les conditions nécessaires pour tenir 1,5°C étaient réunies», résume Jim Skea, de l'Imperial College de Londres. «Et oui, les lois de la physique et de la chimie le permettent, ainsi que les technologies, le changement des modes de vie et les investissements. La dernière chose, à laquelle les scientifiques ne peuvent répondre, c'est si c'est faisable politiquement et institutionnellement. Nous avons remis le message aux gouvernements, nous leur avons donné les preuves, à eux de voir».
L'Alliance des petits Etats insulaires, à la pointe du combat pour inscrire l'objectif 1,5 dans l'accord de Paris, a appelé lundi «les nations civilisées à prendre leurs responsabilités en relevant leurs efforts pour réduire les émissions». «Le rapport montre que nous n'avons plus qu'une occasion, des plus minces, pour éviter des dommages impensables au système climatique qui nous fait vivre», a dit Amjad Abdulla, qui représente une quarantaine de nations allant des Maldives aux Bahamas en passant par Singapour éparpillées sur tous les océans. Il est «convaincu que les historiens regarderont ces conclusions comme un moment clé dans l'histoire des hommes».
«Y arriverons-nous à temps ? Personne ne sait», dit Kaisa Kosonen, responsable climat pour Greenpeace. «Ce qui compte maintenant est que nous décidions d'essayer et que nous en fassions notre priorité. Seulement alors aurons-nous une chance de nous protéger des impacts que la science nous annonce.» (afp/nxp)
https://www.lematin.ch/monde/climat-giec-tire-sonnette-alarme/story/25552520
Vive le gaz carbonique !
RépondreSupprimerLe gaz carbonique nous «serre» !
http://www.legumes.ch/public/index.php?cid=100&articleid=560
MERCREDI 20 OCTOBRE 2010
Alors que la législation prévoit de mettre en place une taxe gaz carbonique avec pour objectif de réduire les dépenses énergétiques de 10 %, voici quelques éléments de réflexion quant à la conception des installations techniques de serres et leur mode de fonctionnement pour utiliser au mieux le gaz carbonique. Commençons par les intérêts agronomiques du gaz carbonique.
Article
A la base de la croissance des plantes, on trouve la photosynthèse, qui combine gaz carbonique et eau pour fabriquer les sucres qui serviront à construire la plante en exploitant l'énergie lumineuse disponible.
Les plantes, grâce à la photosynthèse, sont les seuls êtres vivants capables d'exploiter le gaz carbonique atmosphérique pour fabriquer des acides aminés et protéines. Les animaux et l'homme dépendent des plantes pour cette fonction. La photosynthèse augmente avec la lumière ainsi qu'avec le gaz carbonique disponible c'est-à-dire que si le niveau de gaz carbonique est trop faible, la lumière est mal exploitée.
Exemples:
- à 350 ppm, niveau atmosphérique, et 200 W/m², la plante assimile 20 kg de gaz carbonique par hectare et par heure.
- si la teneur en gaz carbonique tombe à 100 ppm, la plante n'assimile plus que 10 kg de gaz carbonique par hectare et par heure. C'est comme si on ne disposait plus que de 80 W/m² de lumière; la perte est de 120 W/m².
Un hectare de serre contient environ 40'000 m³ d'air, soit 14 m³ de gaz carbonique ou 27.5 kg de gaz carbonique, soit une heure de photosynthèse à 350 W/m² sans ventilation.
Pour capter la lumière et le gaz carbonique nécessaires à la photosynthèse, la plante a besoin de surface foliaire. Cette surface sert aussi à la transpiration, qui est le moteur de l'absorption hydrique et minérale. Pour la tomate, 30 % de la biomasse sont alloués aux parties végétatives, feuilles, tiges et racines alors que les 70 % restant sont alloués aux fruits.
Comme la serre limite les échanges gazeux avec l'extérieur suivant la ventilation, il est intéressant d'apporter du gaz carbonique aux plantes pour favoriser la photosynthèse. Les concentrations peuvent être de 650 à 1000 ppm en hiver, soit 3 à 20 kg /ha/h, et de 400 à 500 ppm en été pour éviter les pertes trop importantes par ventilation, soit 25 à 40 kg/ha/h injecté.
Dans tous les cas, une concentration plus faible mais durant plus longtemps fournit plus d'efficacité, le matin de préférence.
Maîtrise des installations
L'usage du gaz naturel en chaufferie permet la production gratuite de gaz carbonique. Ce gaz est composé essentiellement de méthane (CH4) dont la combustion complète produit du gaz carbonique et de la vapeur d'eau.
La combustion d'1 m³ de gaz nécessite 2 m³ d'oxygène soit 10 m³ d'air. Cette combustion va produire environ 11 m³ de produits contenant 2 kg de gaz carbonique pouvant être injectés en serre après refroidissement et condensation de la vapeur d'eau.
L'énergie thermique récupérée après condensation atteint 11 kWh.
RépondreSupprimerLes besoins thermiques d'une serre sont extrêmement variables au cours de l'année et au cours d'une journée. Alors qu'une puissance thermique en chaufferie de 300 à 500 kW/ha est suffisante pour assurer la production de gaz carbonique nécessaire, soit 70 à 100 kg/ha/h, une puissance de 3000 kW/ha sera exigée durant quelques jours par an pour passer les pointes de froid hivernales.
Il y a donc au minimum un facteur 6 entre la puissance thermique installée en chaufferie et la puissance thermique suffisant à produire le gaz carbonique.
Une chaufferie bien conçue pour la production de gaz carbonique comportera deux chaudières fonctionnant en cascade. L'une fonctionne prioritairement pour les besoins en gaz carbonique et l'autre vient en complément pour assurer les besoins thermiques. Dans la pratique, on trouve fréquemment des chaufferies équipées de deux chaudières de puissance similaire (1500 kW/ha chacune), équipées de brûleurs modulants.
Nous conservons toutefois le principe d'une chaudière de base produisant le gaz carbonique et d'une chaudière assurant la modulation thermique.
En équipement complémentaire, on trouvera des ballons de stockage d'eau chaude. En effet, la photosynthèse se fait en présence de lumière, donc le jour.
Or, la serre, qui est un capteur d'énergie, voit par conséquent ses besoins thermiques diminuer le jour. Pour permettre les injections de gaz carbonique, les chaudières fonctionnent le jour sans demande énergétique et l'eau chaude produite est stockée dans un ballon.
Cette eau chaude sera restituée préférentiellement la nuit lors d'une demande thermique. Le stockage d'eau chaude permet donc à la fois d'optimiser les besoins en gaz carbonique et la demande énergétique de la serre.
Exemple concret de l'utilisation du gaz carbonique
Faisons une comparaison de trois types d'installations existantes (voir tableau ci-dessus):
- serre sans équipement d'injection de gaz carbonique
- serre équipée pour l'injection de gaz carbonique sans stockage d'eau chaude
- serre équipée pour l'injection de gaz carbonique avec stockage d'eau chaude.
Ces chiffres méritent quelques explications.
Tout d'abord, les dépenses énergétiques sont plus importantes lorsqu'on injecte du gaz carbonique sous serre. L'écart de 16 % d'énergie supplémentaire entre une serre sans gaz carbonique et une serre avec gaz carbonique est dû à la pratique du minimum tuyau, c'est-à-dire que nous conservons une température d'eau de chauffage de l'ordre de 30 à 35°C en permanence pour faire fonctionner la chaudière et donc injecter du gaz carbonique.
Par contre, on note un écart thermique de 3 % entre une serre avec gaz carbonique et une serre avec gaz carbonique plus stockage d'eau chaude.
Cet écart est dû aux déperditions thermiques du stockage d'eau chaude.
On constate donc qu'un stockage d'eau chaude n'engendre pas de sur-consommation d'énergie, mais permet d'injecter plus de gaz carbonique dans les serres puisque dans ce cas on découple le fonctionnement de la chaudière en l'activant le jour.
Simulation de la réduction énergétique Supposons des besoins en chauffage de 330 kWh/m²/an. L'année n+1, je m'engage a réduire ma consommation de 10 %, comme le prévoit la loi c'est-à-dire que je décide de dépenser 297 kWh/m2/an en posant par exemple des écrans thermiques ou en choisissant une variété moins exigeante en température. La réduction correspondante de gaz consommé atteint alors 3 m³, soit 6 kg de gaz carbonique (équivalent à 33 kWh/m²/an). C'est ce que prévoit la loi pour une serre sans gaz carbonique.
RépondreSupprimerOr, si l'on injecte du gaz carbonique sous serre, la comparaison précédente montre que l'on a certes augmenté les dépenses énergétiques à 323 kWh/m²/an, mais l'on a ramené les rejets de gaz carbonique dans l'atmosphère à 44,3 kg (58,8 – 14,5 kg), soit en dessous de la réduction prévue par la loi. Dans ce cas, l'objectif est déjà atteint et l'on peut faire beaucoup mieux avec un stockage d'eau chaude.
La serre sans injection de gaz carbonique peut être comparée à n'importe quelle entreprise qui consomme de l'énergie pour ses besoins spécifiques. Et les serristes disposent des moyens de mettre en avant les installations ou équipements spécifiques réalisés pour utiliser au mieux le gaz carbonique et par là-même, limiter les rejets dans l'atmosphère.
Tous les chiffres mentionnés dans cet article ont fait l'objet d'une étude menée par Gaz de France en collaboration avec l'AIREL de Sainte-Livrade région Sud-Ouest et une journée Top Gaz en mars 1998.
Intervenants: M.Tchamitchian, INRA-Avignon, Intérêts agronomiques du gaz carbonique, M.Leroy, expert gaz industrie Gaz de France, Maîtrise des installations, I . Bertrand, direction de recherche Gaz de France, Stockage eau chaude, F.Carmelez, AIREL, gestion du gaz carbonique sous serre, conduite des facteurs climatiques, résultats agronomiques.
-----------------------
PS: Je n'ai pu faire figurer les exposants de l'indice pour méthane THquatre, le pavé ci-dessus ne les acceptant PAS !
http://huemaurice7.blogspot.com/2010/10/vive-le-gaz-carbonique.html
BOMBSHELL: un audit des données sur le réchauffement climatique révèle de nombreuses erreurs
RépondreSupprimerAnthony Watts
7 octobre 2018
Juste avant un nouveau rapport du GIEC, appelé SR # 15 sur le point d'être publié aujourd'hui, nous avons cette bombe. Un audit détaillé montre que les données de température de surface ne sont pas adaptées. Le premier audit jamais réalisé sur l’ensemble de données de température le plus important au monde (HadCRUT4) a révélé que celui-ci était tellement encombré d’erreurs et de «données étrangement improbables» qu’il était effectivement inutile.
Du GIEC:
Réchauffement de la planète à 1,5 ° C, rapport spécial du GIEC sur les impacts du réchauffement de la planète de 1,5 ° C par rapport aux niveaux préindustriels et les voies associées d'émission de gaz à effet de serre, dans le cadre du renforcement de la réponse mondiale à la menace du changement climatique, durable développement et des efforts pour éliminer la pauvreté.
C’est ce que la science consensuelle vous apporte - une pensée de groupe sans contrôle de la qualité.
HadCRUT4 est le principal ensemble de données sur la température mondiale utilisé par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) pour formuler ses affirmations dramatiques sur le «réchauffement planétaire provoqué par l'homme». C’est aussi l’ensemble de données au centre de «ClimateGate» de 2009, géré par l’Unité de recherche sur le climat (CRU) de l’Université d’East Anglia.
L’audit a mis en évidence plus de 70 domaines de préoccupation concernant la qualité et l’exactitude des données.
Selon une analyse du chercheur australien John McLean, il est beaucoup trop maladroit pour être pris au sérieux, même par les climatologues, et encore moins par un organisme aussi influent que le GIEC ou par les gouvernements du monde.
…
Points principaux:
Les données Hadley sont l’une des bases de données les plus citées et les plus importantes pour la modélisation du climat et, partant, pour les politiques de plusieurs milliards de dollars.
McLean a trouvé des données étrangement improbables, des erreurs d’ajustement systématiques, des lacunes importantes en l’absence de données, des erreurs de localisation, des températures en Fahrenheit rapportées en Celsius et des fautes d’orthographe.
Presque aucun contrôle de la qualité n'a été effectué: les erreurs aberrantes, qui sont des erreurs évidentes, n'ont pas été corrigées - une ville de Columbia a passé trois mois en 1978 à une température moyenne de plus de 80 degrés Celsius. Une ville de Roumanie est sortie de l'été 1953 de suite dans un mois de printemps à moins 46 ° C. Ce sont supposément des températures «moyennes» pour un mois complet à la fois. Saint-Kitts, une île des Caraïbes, a été enregistrée à 0 ° C pendant un mois et deux fois!
Les températures pour l’ensemble de l’hémisphère Sud en 1850 et pour les trois prochaines années sont calculées à partir d’un seul site en Indonésie et de quelques navires choisis au hasard.
La température de la surface de la mer représente 70% de la surface de la Terre, mais certaines mesures proviennent de navires enregistrés à 100 km à l’intérieur des terres. D'autres se trouvent dans des ports à peine représentatifs de la haute mer.
Lorsqu'un thermomètre est déplacé sur un nouveau site, l'ajustement suppose que l'ancien site a toujours été construit et «chauffé» par le béton et les bâtiments. En réalité, le réchauffement artificiel s'est probablement introduit lentement. En corrigeant les bâtiments qui n'existaient probablement pas en 1880, les anciens enregistrements sont refroidis artificiellement. Des ajustements pour quelques modifications de site peuvent créer un siècle de tendances au réchauffement artificiel.
Détails des pires valeurs aberrantes
RépondreSupprimerPour les mois d'avril, juin et juillet 1978, Apto Uto (Colombie, ID: 800890) avait une température moyenne mensuelle de 81,5 ° C, 83,4 ° C et 83,4 ° C respectivement.
La température moyenne mensuelle en septembre 1953 à Paltinis, en Roumanie, était de -46,4 ° C (les autres années, la moyenne de septembre était d'environ 11,5 ° C).
À l’aéroport de Golden Rock, sur l’île de Saint-Kitts, dans les Caraïbes, les températures moyennes mensuelles pour les mois de décembre 1981 et 1984 sont rapportées à 0,0 ° C. Mais entre 1971 et 1990, la moyenne des autres années était de 26,0 ° C.
Plus à Jo Nova
Le rapport:
Malheureusement, le rapport est paywalled. La bonne nouvelle est que c’est seulement 8 $.
Le chercheur, John McLean, a effectué tout le travail par lui-même. C'est donc un moyen de se faire payer pour le temps et les efforts consacrés. Il écrit:
Ce rapport est basé sur une thèse pour mon doctorat, qui a été décernée en décembre 2017 par l'Université James Cook, Townsville, Australie. La thèse1 était basée sur le jeu de données HadCRUT4 et les fichiers associés tels qu'ils étaient à la fin de janvier 2016. La thèse a identifié 27 problèmes liés au jeu de données.
Les versions de janvier 2018 des fichiers contenaient non seulement des mises à jour pour les 24 mois précédents, mais également des stations d'observation supplémentaires et les modifications consécutives de l'anomalie mensuelle de la température moyenne globale jusqu'au début des données, en 1850.
Le rapport utilise les données de janvier 2018 et révise et étend l'analyse effectuée dans la thèse initiale, omettant parfois des problèmes mineurs, divisant parfois les problèmes majeurs et analysant parfois de nouveaux domaines et rendant compte de ces résultats.
La thèse a été examinée par des experts extérieurs à l'université, révisée en fonction de leurs commentaires et ensuite acceptée par l'université. Ce processus était au moins équivalent à une «évaluation par les pairs» telle que conduite par des revues scientifiques.
J'ai acheté une copie et j'ai reproduit le résumé ci-dessous. J'exhorte les lecteurs à acheter une copie et à soutenir ce travail.
Obtenez-le ici:
RÉSUMÉ
Autant que l'on puisse en juger, il s'agit du premier audit du jeu de données HadCRUT4, le principal jeu de données de température utilisé dans les rapports d'évaluation du climat du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Les gouvernements et la Convention-cadre des Nations Unies sur les changements climatiques (CCNUCC) sont fortement tributaires des rapports du GIEC. Par conséquent, les données de température doivent être précises et fiables.
Cet audit montre que ce n'est ni l'une ni l'autre de ces choses.
Plus de 70 problèmes ont été identifiés, couvrant l’ensemble du processus, depuis la mesure des températures jusqu’à la création de l’ensemble de données, en passant par les données (telles que les moyennes) et sa publication éventuelle. Les constatations (présentées à l’annexe 6, sous forme consolidée) incluent même de simples problèmes de données manifestement erronées, une faible densité de données dissimulée, des hypothèses importantes mais douteuses et des données de température mal ajustées de manière à exagérer le réchauffement.
On y trouve, par exemple, une station d’observation signalant des températures mensuelles moyennes supérieures à 80 ° C, deux cas d’une station dans les Caraïbes rapportant des températures moyennes de 0 ° C en décembre, et une station roumaine indiquant une température moyenne de -45 ° C en septembre. La température moyenne au mois de novembre est de 10 ° C. De plus, certains navires qui ont mesuré la température de la mer ont indiqué que leur emplacement était à plus de 80 km à l'intérieur des terres.
Il semble que les fournisseurs de données sur la température de la terre et la température de la mer n’aient pas vérifié les erreurs de base et que les personnes qui ont créé le jeu de données HadCRUT ne les aient pas trouvées et ne se soient pas posé de questions.
RépondreSupprimerLe traitement qui crée le jeu de données supprime certaines erreurs, mais il utilise un seuil défini à partir de deux valeurs calculées à partir d’une partie des données, mais les erreurs n’ont pas été supprimées avant le calcul des deux valeurs.
La fragmentation des données est un réel problème. L'ensemble de données commence en 1850, mais depuis un peu plus de deux ans au début de l'enregistrement, les seules données terrestres pour l'ensemble de l'hémisphère sud proviennent d'une seule station d'observation en Indonésie. Au bout de cinq ans, seules trois stations ont communiqué des données dans cet hémisphère. Les moyennes mondiales sont calculées à partir des moyennes de chacun des deux hémisphères. Ces quelques stations ont donc une grande influence sur ce qui est censé être «mondial». La quantité de données est liée au pourcentage du monde (ou de l’hémisphère) couvert par les données. Selon la méthode de calcul de la couverture pour l'ensemble de données, 50% de la couverture mondiale n'a été atteinte qu'en 1906 et 50% de l'hémisphère sud n'a pas été atteinte avant environ 1950.
En mai 1861, la couverture mondiale n’était que de 12 %, soit moins d’un huitième. Dans la plupart des années 1860 et 1870, l’essentiel de la soi-disant couverture mondiale provenait de l’Europe, de ses voies maritimes et de ses ports commerciaux, ne couvrant que 13 % environ de la surface de la Terre. Calculer des moyennes à partir de ces données et les qualifier de «moyennes globales», c'est étendre la crédulité.
Une autre conclusion importante de cette vérification est que de nombreuses températures ont été mal ajustées. L’ajustement des données vise à créer un enregistrement de la température qui aurait été obtenu si les stations et équipements d’observation actuels avaient toujours mesuré la température locale. Les ajustements sont généralement effectués lorsque la station est déplacée ou que ses instruments ou leur boîtier sont remplacés.
La méthode typique d'ajustement des données consiste à modifier toutes les valeurs précédentes du même montant. Appliquer cela à des situations qui ont changé progressivement (par exemple, une ville en expansion faussant de plus en plus la température réelle) est très erroné et laisse les données antérieures ajustées plus que prévu. Les stations d’observation peuvent être déplacées à plusieurs reprises et toutes les données précédentes étant ajustées à chaque fois, les données les plus anciennes peuvent être bien inférieures à leur valeur correcte et l’enregistrement de données complet indique une tendance au réchauffement exagéré.
La conclusion générale (voir chapitre 10) est que les données ne conviennent pas aux études globales. Les données antérieures à 1950 souffrent d'une faible couverture et très probablement de multiples ajustements incorrects des données de station. Les données depuis cette année ont une meilleure couverture, mais le problème des ajustements de données et une foule d'autres problèmes mentionnés dans l'audit restent en suspens.
Le calcul des températures correctes nécessiterait une énorme quantité de données détaillées, de temps et d’efforts, ce qui dépasse le cadre de cet audit et est peut-être même impossible. La conclusion principale de l’audit est toutefois que l’ensemble de données montre un réchauffement exagéré et que les moyennes mondiales sont beaucoup moins certaines que celles qui ont été annoncées.
L’audit a notamment pour conséquence que les modèles climatiques ont été ajustés pour correspondre à des données incorrectes, ce qui rendrait fausses leurs prévisions des futures températures et l’estimation de l’influence des températures sur l’être humain.
Une autre implication est que la proposition selon laquelle l'accord de Paris sur le climat adopterait les moyennes de 1850-1899 comme "indicatives" des températures préindustrielles est fatalement viciée. Pendant cette période, la couverture mondiale est faible - elle est en moyenne de 30% sur cette période - et de nombreuses températures terrestres risquent fort d'être trop ajustées et donc incorrectes.
RépondreSupprimerUne troisième implication est que, même si l’affirmation du GIEC selon laquelle l’humanité aurait provoqué la majorité du réchauffement depuis 1950 est exacte, alors ce réchauffement sur une période de presque 70 ans pourrait bien être négligeable. La question se pose alors de savoir si l'effort et le coût pour y remédier ont un sens.
En fin de compte, cet auteur est d'avis que les données de HadCRUT4, ainsi que tous les rapports ou revendications qui en découlent, ne constituent pas une base crédible pour la politique gouvernementale en matière de climat ou pour des accords internationaux sur les causes supposées du changement climatique.
https://wattsupwiththat.com/2018/10/07/bombshell-audit-of-global-warming-data-finds-it-riddled-with-errors/
Les ondes magnétiques
RépondreSupprimerVENDREDI 15 OCTOBRE 2010
"Ils prétendent pouvoir changer/modifier le climat". Qu'est-ce que cette science ? Nous sommes tous sur Terre traversé de milliards de champs magnétiques. 'Nous', ce sont les humains, les animaux, les arbres, les fleurs, les graines ainsi que l'eau. Or, l'eau est présente partout. Il existe chaque jour des marées. Des marées basses et des marées hautes. Ce champs magnétique est créé par la lune. Mais, dites-moi, le pouvoir magnétique de cet astre s'arrête t-il aux océans ? Bien sûr que non et, nous subissons tous des 'marées' à l'intérieur-même de notre corps comme à l'extérieur.
Dans les projets HAARP, les effets sont dirigés vers le contrôle des nuages, c'est-à-dire sur l'eau qu'ils contiennent et qui peut être désagrégée comme concentrée et/ou déplacée. Effectivement là, nous ne pouvons qu'applaudir des deux mains à cette merveilleuse découverte qui peut enfin permettre d'arroser des terres arides et réguler les moussons comme les autres fortes pluies susceptibles de créer des inondations.
Autre présentation du traversement de notre corps par des ondes est - entr'autres - le téléphone. Si l'émetteur est placé par exemple à votre gauche et que vous téléphoniez en tenant le combiné du côté droit, les ondes ne vont pas contourner votre tête mais la traverser comme si elle n'existait pas ! D'où l'inventivité de se servir de ce moyen efficace pour... contrôler/modifier notre esprit. Par qui sont créée ces ondes a basses fréquences qui sont en nous et font que le matin nous nous levions, marchions, mangions ? Nous avons toujours pensé qu'elles étaient innées et que notre état d'esprit était propre à chacun de nous. Nous nous trompions. Si nous admirons, nous aimons, nous détestons telle ou telle personne, c'est peut-être aujourd'hui due à l'attitude des gouvernements dont sans le savoir en sommes devenus les esclaves dociles et bien incapables de dire 'non'.
Qu'en est-il du degré d'acceptabilité de telles intrusions dans notre vie privée ? D'ailleurs, pourquoi n'en parlent-ils pas en débats nationaux ?
Ces 'nouvelles technologies' bien secrètes abordent un sujet dont nous n'en avons connaissances profondes, certes, mais dont les avantages immédiats nous échappent ! Et plus encore, les modifications climatiques intervenues nous portent à réflexions. A voir les structures montées de la fameuse arnaque du 'Global Warming' et de son Copenhagate 2009, il semblerait qu'elles soient plutôt dirigées contre nous. Ainsi, pour couvrir cette maléfique mise-en-place ont-ils dû se servir de stratagèmes contestés par les plus imminents scientifiques climatologues. Stratagèmes des "gaz a effet de serre" comme celui du poison sorti de notre bouche ! Encore eut-il fallu en débattre !
Mais là encore, les escrocs ne parlent que par journaux interposés.
Qui parle de l'arme scalaire, des chemtrails et du pétrole abiotique connaît les clés de ce monde, mais, à part de fermer Internet (empêchement de parler) rien d'autre aujourd'hui n'est présent à l'actualité. Pensez-vous encore que quelqu'un qui voudrait vous tuer vous en avertirait à l'avance ?
http://incroyables-verites.over-blog.com/article-19441612.html
http://huemaurice7.blogspot.com/2010/10/les-ondes-magnetiques.html
1er octobre 2018 : toutes les assurances officiellement en concurrence !
RépondreSupprimerSerait-ce la fin du monopole de la Sécurité sociale ?
Par Jean-Nicolas Boullenois.
7 OCTOBRE 2018
La directive 2016/97 du 20 janvier 2016 qui devait initialement s’appliquer au 23 février 2018, a vu sa date de transposition reportée au 1er juillet 2018, et sa date d’application au 1er octobre 2018.
Cette directive concerne la « distribution d’assurances », qu’elle soit assurée par les assurances elles-mêmes, ou par des intermédiaires (courtiers).
Dans ses considérants, cette directive réaffirme
la nécessité de « conditions de concurrence équitables entre distributeurs » (considérant 6),
la nécessité de « renforcer encore le marché intérieur et de promouvoir un véritable marché intérieur des produits et services d’assurance vie et non-vie » (considérant 9),
l’exigence, afin « d’éviter des cas de vente abusive », que « la vente de produits d’assurance soit toujours accompagnée d’une évaluation des exigences et des besoins réalisée à partir des informations obtenues auprès du client » et que tout produit d’assurance proposé au client soit « cohérent avec les exigences et les besoins de ce dernier et présenté sous une forme compréhensible, afin de permettre au client de prendre une décision en connaissance de cause » (considérant 44),
l’exigence de « fournir au client une recommandation personnalisée expliquant pourquoi un produit particulier correspondrait le mieux à ses exigences et à ses besoins en matière d’assurance » (considérant 45).
que « les politiques de rémunération pratiquées par les distributeurs de produits d’assurance vis-à-vis de leur personnel ou de leurs représentants n’entravent pas leur capacité à agir au mieux des intérêts des clients, ni ne les dissuadent de faire une recommandation adaptée ou de présenter l’information de manière impartiale, claire et non trompeuse » (considérant 46).
Elle prévoit enfin, avant la conclusion d’un contrat, la remise au client d’un document d’information normalisé (considérant 48).
Cette directive s’applique aux « assurances collectives », en particulier aux « régimes de retraite professionnelle obligatoire » (considérant 49). Dans ce cas, il est prévu, si un salarié est affilié sans avoir pris personnellement la décision d’y adhérer, que « les informations lui soient fournies sans tarder après son affiliation au régime en question » (article 22).
Mais le plus intéressant est que, contrairement aux troisièmes directives assurances de 1992 (directives 92/49) et 92/96, abrogées et remplacées respectivement par les directives 2009/138 dite Solvabilité II et 2002/83 , cette directive 2016/97 n’exclut pas de son champ d’application les « assurances comprises dans un régime légal de sécurité sociale » !
Le document d’information normalisé, IPID (Insurance Product Information Document), prévu à l’article 20, a été précisé par le règlement d’exécution 2017/1469, avec un modèle type de présentation. Ses rubriques sont les suivantes :
« De quel type d’assurance s’agit-il ? »
RépondreSupprimer« Qu’est-ce qui est assuré ? »
« Qu’est-ce qui n’est pas assuré ? »
« Y a-t-il des exclusions à la couverture ? »
« Où suis-je couvert(e) ? »
« Quelles sont mes obligations ? »
« Quand et comment effectuer les paiements ? »
« Quand commence la couverture et quand prend-elle fin ? »
« Comment puis-je résilier le contrat ? »
On voit mal comment la France pourrait faire échapper les « assurances comprises dans un régime légal de sécurité sociale » à l’application de cette directive, alors qu’une telle exclusion n’est de toute évidence pas prévue, sauf à prétendre, à la manière de Magritte (« Ceci n’est pas une pipe »), que l’assurance maladie ou l’assurance vieillesse ne sont pas des assurances.
Mais même si par extraordinaire le gouvernement tentait une nouvelle entourloupe, la large ouverture à partir du 1er octobre à la commercialisation sur le marché français de contrats d’assurances par des courtiers établis dans d’autres pays membres rendra inévitable l’application en France de la jurisprudence introduite par le TUE dans son arrêt du 5 février 2018 concernant la Slovaquie, selon laquelle
la circonstance que l’offre de biens et de services soit faite sans but lucratif ne fait pas obstacle à ce que l’entité qui effectue ces opérations sur le marché soit considérée comme une entreprise, dès lors que cette offre se trouve en concurrence avec celle d’autres opérateurs qui poursuivent un but lucratif.
Les jours du monopole de la Sécurité sociale sont donc comptés, et personne ne regrettera ce monstre soviétique tentaculaire qui ruine la France et les Français depuis des décennies !
Article initialement publié en mai 2018.
https://www.contrepoints.org/2018/10/07/316090-1er-octobre-assurances-en-concurrence