Visualiser les plus grands importateurs du monde en 2017
par Tyler Durden Jeu, 07/12/2018 - 01:10
Pour la plupart des dirigeants mondiaux et des dirigeants d'entreprises, le basculement du pendule mondial vers des politiques plus protectionnistes a été une surprise désagréable.
C'est parce que les économistes et les historiens de l'économie sont d'accord pour dire que des mesures telles que le Smoot-Hawley Tariff Act de 1930, qui a déclenché une guerre commerciale pendant la Grande Dépression, ont grandement exacerbé des circonstances déjà désastreuses.
Il est courant que des mesures de rétorsion viennent contrecarrer les augmentations tarifaires, ce qui peut souvent se traduire par une baisse des échanges internationaux et une baisse de la croissance économique dans tous les secteurs. De 1929 à 1934, selon le Département d'État des États-Unis, le commerce mondial a diminué de 66% - en grande partie à la suite des guerres commerciales qui ont suivi le passage de Smoot-Hawley.
Pour les raisons ci-dessus, les barrières internationales au commerce ont diminué pendant des décennies - jusqu'à présent, bien sûr.
LES PLUS IMPORTANTS IMPORTATEURS
Quels pays peuvent faire le plus de poids avec les tarifs et les mesures de rétorsion?
Ce sont ceux qui importent le plus de biens - et l'infographie d'aujourd'hui de HowMuch.net montre les plus grands importateurs du monde en 2017, selon les données récemment publiées par l'Organisation mondiale du commerce.
- voir carte sur site -
Courtoisie de: Visual Capitaliste
Voici les 15 principaux importateurs mondiaux:
- voir liste sur site -
Les États-Unis arrivent en tête avec 2 409 milliards de dollars d'importations en 2017, soit environ 13,4 % du total mondial. Il vaut la peine de mentionner que cela représente 860 milliards de dollars de plus que les exportations du pays en 2017, et que la différence entre ces deux chiffres est le déficit commercial vivement débattu.
La Chine et l'Allemagne arrivent respectivement aux deuxième et troisième rangs, avec 1 842 milliards de dollars (10,2 % du total mondial) d'importations pour la Chine et 1 167 milliards de dollars (6,5 % du total) pour la plus grande économie européenne.
Après les trois grands, aucun autre pays n'a un chiffre supérieur à 5 % des importations mondiales, mais le Japon, le Royaume-Uni, la France, Hong Kong (Chine) et les Pays-Bas dépassent tous les 3 %.
par Tyler Durden Mercredi, 07/11/2018 - 23:05 Rédigé par Mac Slavo via SHTFplan.com,
L'Organisation mondiale de la santé a officiellement déclaré que le bacon était tout aussi dangereux pour la santé que le tabac. L'OMS a pris la décision de déclarer toutes les viandes transformées «cancérogènes pour l'homme» et ce n'est pas une bonne chose.
L'Organisation mondiale de la santé a officiellement classé les viandes transformées comme étant cancérigènes en octobre 2015. La décision a été prise par le Centre international de recherche sur le cancer (CIRC), basé sur un examen effectué sur 800 études dans le monde.
Ils ont affirmé que le rapport a trouvé "des preuves suffisantes chez l'homme que la consommation de viande transformée provoque le cancer colorectal". Selon le rapport du CIRC:
"La viande se compose de plusieurs composants, tels que le fer hème. La viande peut également contenir des produits chimiques qui se forment lors de la transformation ou de la cuisson de la viande.
Par exemple, les produits chimiques cancérigènes qui se forment lors du traitement de la viande comprennent les composés N-nitroso et les hydrocarbures aromatiques polycycliques.
La cuisson de la viande rouge ou de la viande transformée produit également des amines aromatiques hétérocycliques ainsi que d'autres produits chimiques, notamment des hydrocarbures aromatiques polycycliques, que l'on trouve également dans d'autres aliments et dans la pollution de l'air.
Certains de ces produits chimiques sont cancérogènes connus ou soupçonnés, mais en dépit de cette connaissance, on ne comprend pas encore complètement comment le risque de cancer est augmenté par la viande rouge ou la viande transformée. "
Cela signifie que ce n'est pas seulement du bacon, mais de la viande transformée qui pourrait être potentiellement cancérogène. Selon la déclaration de la vérité, l'OMS a pris la décision de bacon et d'autres viandes transformées dans les rangs d'autres substances notoirement cancérigènes tels que l'amiante, l'arsenic, les cigarettes et l'alcool. En fait, cette décision et l'histoire qui s'en suit sont toutes basées sur un sophisme: un appel à l'autorité, l'autorité de l'OMS.
Souvent, l'OMS, les CDC (Centers for Disease Control) et d'autres organisations gouvernementales ont la capacité de provoquer un tollé médiatique basé sur rien de plus ce qu'ils disent. L'OMS n'a aucune intention réelle de garder les gens en bonne santé, étant une force altruiste pour s'assurer que les gens n'obtiennent pas le cancer de l'intestin. Il serait naïf de penser que c'est la raison pour laquelle ils existent.
À la base de cette histoire, l'OMS et les organisations de santé justifient leur existence en émettant des avertissements sur des choses comme celle-ci.
L'OMS a un niveau de surface, où elle divulgue au public ce qu'elle recherche et essaie de justifier son existence par de petits avertissements comme celui-ci, puis elle a une profondeur plus profonde de ce qu'elle fait et de qui elle approuve, quelles recherches et quels produits promouvoir, et tout le reste.
De plus, ce n'est pas une bonne chose lorsque les organismes gouvernementaux commencent à reconnaître officiellement les choses. Quand le gouvernement commence à reconnaître «officiellement» le danger du tabac, il commence à essayer de faire des lois qui ne font que gonfler les poches des politiciens et créer de petits tracas ennuyeux pour les gens qui n'abandonnent pas leurs cigarettes. -Rapport de la vérité
La vérité est, presque tout le monde sait que le bacon n'est pas un «aliment de santé». Ce n'est pas un légume et il est chargé de graisse. Ce n'est pas la meilleure nourriture à manger et à cause de cela, la plupart des gens ont le bon sens de ne pas en manger une livre à la fois.
La cigarette ou l'alcool n'ont JAMAIS tué quelqu'un, SEUL L'ABUS tue !
L'histoire du 'bacon' vaut le coup d'être contée: Ils partent du principe que TOUTES viandes rôties (ou un peu brûlées) sont cancérigène, mais... ils prennent soin de s'arrêter sur le lard de porc afin de l'interdire et faire plaisir à leur chef excisé qui refuse d'en manger !
C'est TOUS les jours que TOUT LE MONDE consomme (depuis toujours !) des produits toxiques, mais le corps les élimine. TOUS les médicaments contiennent des produits toxiques, le pain contient même de l'arsenic ! L'eau pure, propre, de source est empoisonnée VOLONTAIREMENT par du fluor ! LISEZ CE QUI EST ÉCRIT SUR LES TUBES DE DENTIFRICE ! NE PAS AVALER, ATTENTION DANGER !!
BOUDRY (NE) / SOMALIE EXCISIONS AU PAYS JUGÉES DEVANT UN TRIBUNAL SUISSE
Une femme répond de mutilations génitales sur ses filles en Somalie, avant son entrée sur le territoire helvétique.
YANNICK WEBER 11.07.2018
Comme 98 % des femmes en Somalie, l’accusée qui a fait face au Tribunal de police de Boudry, mercredi, a été excisée. Mais si elle devait répondre aux questions de la présidente, c’est parce que, avant d’arriver en Suisse, elle a également fait subir à ses deux filles la mutilation génitale. Et parce que le Code pénal vise à punir l’acte, même lorsqu'il est pratiqué à l’étranger.
La Somalienne, en habits traditionnels et avec l’aide d’une interprète, a, à la surprise de son avocate et face au sourire narquois de la procureure, cherché à défendre une nouvelle version selon laquelle la grand-mère aurait organisé l’excision des fillettes à son insu alors qu’elle tenait un stand au marché de Mogadiscio. Cette version n’a convaincu personne parmi le tribunal exclusivement féminin qui siégeait pour trancher le cas de cette pratique aux racines patriarcales.
«Un acte barbare»
La procureure Nathalie Guillaume-Gentil Gross, après avoir rappelé que l'excision représente un acte qui s'apparente à de la torture, a requis une peine de prison de 18 mois avec sursis: «Le but n’est pas de prononcer une peine, mais de faire passer un message. L’excision est interdite, peu importe où elle est pratiquée.»
L’avocate de l’accusée Béatrice Haeny, a, elle, rappelé le parcours de vie de celle qui a vécu la terreur des shebabs, qui est illettrée, et qui est arrivée en Suisse par regroupement familial pour retrouver un mari qui lui a fait subir des violences conjugales. «C’est un acte barbare, ignoble et d’un autre temps. Mais il faut tenter de comprendre cette autre culture. Toutes les femmes en Suisse qui ont fait exciser leurs filles devraient donc être condamnées ? Sous la pression, elle a répondu à un impératif culturel et doit être acquittée», a-t-elle plaidé.
Juger en Suisse un acte commis à l'étranger ?
Le débat s’est porté sur l’application de ce nouvel article du Code pénal. Peut-il faire condamner une femme pour des excisions même si elle n’avait alors aucun lien avec la Suisse? Oui, selon la procureure, qui a mentionné «l'universalité de la poursuite» prévue dans l'article. Non, selon l'avocate, qui interprète le même texte en y lisant une manière de réprimer le «tourisme de l'excision», où des fillettes établies en Suisse seraient excisées dans leur pays d'origine. Le verdict sera rendu jeudi après-midi. (Le Matin)
La patrouille frontalière accuse le maire de New York de franchir illégalement la frontière entre les États-Unis et le Mexique
par Tyler Durden Mer, 07/11/2018 - 18:05
Il s'avère que les réfugiés désespérés, les passeurs de clandestins et les trafiquants de drogue ne sont pas les seuls à franchir illégalement la frontière américano-mexicaine.
À cette liste, nous pouvons ajouter Bill de Blasio, maire de New York, et son entourage de sécurité. Selon une lettre envoyée à l'Associated Press, de Blasio a été accusé d'avoir violé les lois américaines et mexicaines après avoir traversé la frontière à pied lors d'une récente visite dans un centre de détention d'immigration près d'El Paso, au Texas. Le maire a répondu aux accusations mercredi, les qualifiant de "absolument ridicules".
De Blasio a été extrêmement critique à l'égard des politiques d'immigration de l'administration Trump et a déclaré que New York était un sanctuaire pour les immigrants illégaux.
L'incident s'est produit lorsque de Blasio a visité la frontière du Texas dans un groupe avec 20 autres maires le 21 juin, au lendemain de la signature par le président Trump d'une ordonnance arrêtant les séparations familiales à la frontière. Les maires vont documenter ce qu'ils décrivent comme une «crise humanitaire» créée par le président. Après s'être vu refuser l'entrée dans un centre de détention pour enfants immigrés séparés de leurs parents, de Blasio s'est ensuite rendu au Mexique pour avoir une meilleure vue de l'établissement avec ses informations de sécurité. Le NYPD est en charge de la sécurité de de Blasio.
Tandis que le groupe de Blasio se tenait dans la plaine inondable du Rio Grande en train de prendre des photos du centre de détention, un agent de la police des frontières en uniforme a remarqué le groupe et s'est approché d'eux. L'agent a demandé si quelqu'un de la patrouille frontalière ou des affaires publiques les avait accompagnés pour autoriser leur visite. Un membre du service de sécurité de de Blasio a dit non, et quand l'agent leur a demandé comment ils étaient arrivés, ils ont fait un geste en direction du Mexique.
L'agent les a alors informés qu'ils avaient traversé la frontière illégalement et leur a demandé de rester sur place pendant qu'il en informait son superviseur et les emmenait à un passage à niveau officiel pour une inspection par loi fédérale. Mais le groupe a ignoré l'agent et est retourné à leurs véhicules et a entrepris de rentrer au Mexique. Ils sont ensuite rentrés en voiture par un port d'entrée environ trois heures plus tard, selon la lettre.
En réponse à la lettre, de Blasio a déclaré l'accusation "absolument ridicule" et a déclaré qu'il avait reçu l'approbation de passer d'un superviseur de la patrouille frontalière, selon le Daily Caller.
Le porte-parole du maire Eric Phillips soutient que le groupe n'a rien fait de mal et a été autorisé à être là.
"Le maire a franchi la frontière avec l'approbation directe et sous la supervision du superviseur de la patrouille frontalière à ce point d'entrée", a déclaré M. Phillips dans un courriel adressé à l'Associated Press. "Toute suggestion contraire est un mensonge flagrant et une tentative évidente par quelqu'un d'attaquer le maire en raison de son plaidoyer pour que les familles soient déchirées à la frontière par l'administration Trump."
De Blasio a déclaré à l'AP que lui et les membres de son équipe ont montré leur passeport et l'ont approuvé avec les agents au point d'entrée.
"Les menaces de l'administration Trump ne m'empêcheront pas de parler et elles n'empêcheront pas mes collègues maires de s'exprimer, et ils ne cesseront pas tous les jours les New Yorkais et les Américains de s'exprimer", a déclaré M. de Blasio.
La lettre a été envoyée le 25 juin par Aaron Hull, l'agent de patrouille en chef du secteur El Paso de la patrouille frontalière, au commissaire de la police de New York, James O'Neill.
De Blasio a qualifié cette lettre de menace organisée par l'administration Trump pour le faire taire.
L'IA va-t-elle changer le monde ou simplement booster les profits ?
par Tyler Durden Mercredi, 07/11/2018 - 14:49 Auteur de Charles Hugh Smith via le blog OfTwoMinds,
La vraie bataille n'est pas entre une vision caricaturale ou un cauchemar dystopique - c'est entre la propriété décentralisée et le contrôle de ces technologies et la propriété et le contrôle centralisés.
Le battage médiatique autour de l'intelligence artificielle (IA) et de ses cousins Big Data et Machine Learning est omniprésent, et largement non examiné. L'IA va changer le monde en libérant l'humanité de la plupart de ses travaux, etc. etc.
Commençons par demander: à qui appartient cette IA ? Cela soulève deux autres questions: qui profite du «logiciel mange le monde» (pour reprendre l'expression lapidaire de Marc Andreesen), et dans quel but cette technologie est-elle appliquée ?
Les réponses sont douloureusement évidentes: les grandes sociétés mondiales, dont beaucoup fonctionnent comme des quasi-monopoles (Facebook, Google et autres), sont les propriétaires de ces nouvelles technologies, et le but poursuivi est de maximiser les profits et d'assurer un monopole qui assure des profits élevés dans le futur.
Le battage publicitaire prend deux voies prévisibles, une euphorie de Jetson-cartoonish et l'autre ruine dystopique. Les véhicules autonomes vont changer le monde de manière merveilleuse en éliminant la source des accidents: l'erreur humaine.
Et c'est une perspective cauchemardesque, que vont faire ces millions de gens qui conduisent actuellement des véhicules ?
Peu de gens demandent: qui profitera de tout cela ? De toute évidence, les fabricants de véhicules autonomes et les propriétaires de services qui remplacent les véhicules privés.
La vraie course dans l'IA est de sécuriser les franchises rentables et d'éliminer les concurrents en augmentant plus rapidement que les autres sociétés.
C'est pourquoi le marché encourage Netflix à brûler des milliards de dollars chaque année: s'ils brûlent des milliards, ils doivent être plus rapides que leurs concurrents, et ils seront ainsi les «gagnants» de la course à la création et à la distribution de contenus médiocres.
Considérez les utilisations que l'IA détenue par les entreprises a déjà utilisées pour maximiser les profits: la manipulation par Facebook des flux de données et de contenus de ses utilisateurs et la vente de leurs données.
Après un bref ralentissement en raison des craintes de régulation, le marché est de nouveau amoureux des immenses bénéfices de Facebook, et le stock de Facebook atteint à nouveau des records.
L'intelligence artificielle et la collecte de données volumineuses constituent le cœur rentable de Surveillance Capitalism, qui comprend les contrats gargantuesques d'Amazon avec les agences de sécurité nationale et des travaux similaires réalisés par de nombreux autres sous-traitants (SAIC, et al.)
Plutôt qu'un monde Jetson-cartoonish de robots intelligents faisant tout le travail afin que nous puissions tous devenir des poètes et regarder des films médiocres toute la journée, ce que l'IA fait dans le monde réel tire des profits des données collectées de la population efficacement ou de contrôler la population plus efficacement.
Les enthousiastes de l'IA-robotique ne semblent jamais vraiment travailler dans l'industrie de la robotique AI. Ce sont des types de médias qui extrapolent des extrapolations sans poser les questions clés: qui va posséder cette technologie, et dans quel but sera-t-elle appliquée?
Nous connaissons les réponses: les entreprises mondiales et la maximisation des profits.
Démanteler une partie seulement de la vision du monde des robots et de l'IA de Jetson-cartoonish devient essentiellement gratuite pour tout le monde: la fabrication d'un robot ne sera jamais gratuite car les robots ont besoin de grandes quantités d'énergie et de maintenance. Même si le travail humain a été complètement éliminé, les coûts d'extraction, d'affinage et de transport des ressources restent, ainsi que les coûts d'extraction de l'énergie pour faire tout ce travail, ainsi que pour fabriquer et assembler toutes les pièces.
L'élimination du travail humain supprime très peu de la structure de coûts.
Quant au logiciel d'IA étant «gratuit», il sera gratuit comme le système d'exploitation Android et l'iOS d'Apple: gratuit pour ceux qui développent des utilisations rentables des franchises appartenant à l'entreprise.
Dans ma vision du monde, AI a un but: éliminer les préjugés et les privilèges. Un logiciel correctement programmé ne gardera aucune trace de la couleur de la peau ou d'autres sources de biais humain.
Le danger est que les logiciels détenus par les entreprises suivent tout ce qui peut être utilisé pour commercialiser ou contrôler la population, et cela inclut toutes les nuances de partialité et de privilège.
La vraie bataille n'est pas entre une vision caricaturale ou un cauchemar dystopique - c'est entre la propriété décentralisée et le contrôle de ces technologies et la propriété et le contrôle centralisés.
Le système CLIME (tel que décrit dans mon livre Un monde radicalement bénéfique) est en fait un système d'IA décentralisé et distribué qui organise un réseau de groupes communautaires autonomes et démocratiques qui paient les membres pour effectuer le travail nécessaire dans leurs communautés.
L'intelligence artificielle sera-t-elle exploitée pour maximiser les profits pour les quelques riches, ou est-ce qu'une partie mince et décentralisée de ces technologies servira réellement des besoins humains non rentables ?
L''Intelligence Artificelle' N'EXISTE PAS ! Il s'agit uniquement de programmes sophistiqués guère plus 'intelligent' qu'un interrupteur électrique pour éclairer une lampe !
Il s'agit uniquement d'un lobbying destiné à vendre ce qui n'existe pas à des particuliers. Or, chez les particuliers n'existe pas de sécurité comparable aux grands établissements. Donc: tous gadget acheté est piratable !
C'est ce qui est aussi appelé 'l'obsolescence programmée' ou 'le commerce des voleurs'.
Bucket list: Données historiques sur la température de l'océan mondial - le pedigree manquant est une comédie d'erreurs
11 juillet 2018 Par Hartmut Hoecht
1. Introduction
Ce document aborde le mépris flagrant au sein de la communauté scientifique dans le traitement des erreurs de données thermiques du sondage océanique global. Les enregistrements récents et plus anciens sont compilés avec des températures notées en petites fractions de degrés, tandis que leurs processus de collecte fournissent souvent des erreurs beaucoup plus importantes que des degrés entiers. À la suite de méthodes grossières, le fondement même de l'historique et de la validité de la base de données actuelle est remis en question, ainsi que les prédictions de la température globale pour le futur.
Suivez-moi dans l'exploration de la façon dont le record mondial de température de l'océan a été recueilli.
Premièrement, un point de référence pour une discussion plus approfondie:
Wikipédia, provenant de la NASA Goddard, a un graphique illustratif des températures mondiales avec une superposition de moyenne quinquennale. Focus sur la période de refroidissement entre le milieu des années 1940 et le milieu des années 1970. On peut constater le début rapide du refroidissement, qui s'élevait à environ 0,3 degré C en 1945, et son inversion plus tard clairement discernable.
- voir graphique sur site -
Indice de température terrestre-océanique de 1880 à nos jours, avec période de base 1951-1980. La ligne noire continue est la moyenne annuelle globale et la ligne rouge continue correspond à la courbe basse de cinq ans, c'est-à-dire une analyse de régression non paramétrique reposant sur un modèle de k voisin le plus proche. La fonction est évaluée en utilisant une fraction de données correspondant à une fenêtre de données de dix ans, ce qui donne un lissage effectif d'environ cinq ans. Les barres d'incertitude bleues (limite de confiance à 95%) ne tiennent compte que de l'échantillonnage spatial incomplet. Ceci est basé sur la figure 1A dans Hansen et al. (2006) et Fig. 9a dans Hansen et al. (2010). Source: https://commons.wikimedia.org/wiki/File:Global_Temperature_Anomaly.svg
L'article de mai 2008 de Thompson et al dans Nature a attiré mon attention. Gavin Schmidt de RealClimate et aussi le New Scientist l'ont commenté. Thompson prétend qu'il a trouvé la raison pour laquelle le refroidissement des années 1940 a commencé avec un renversement aussi radical de la tendance de chauffage précédente, quelque chose qui a apparemment intrigué les scientifiques pendant longtemps. La raison de cette baisse de température a été donnée comme le changement dans les méthodes de collecte des données de température de l'océan. C'est-à-dire changer la pratique consistant à plonger les godets d'échantillonnage dans la lecture des températures d'entrée d'eau de refroidissement du moteur.
Regardons de plus près cette période de refroidissement.
Avant et après la Seconde Guerre mondiale, la flotte britannique utilisait la «méthode du seau» pour recueillir l'eau de l'océan afin de mesurer sa température. Autrement dit, un seau rempli d'eau a été échantillonné avec un thermomètre à bulbe. L'autre méthode de sondage répandue consistait à lire les températures d'entrée d'eau de refroidissement des navires.
Ces deux méthodes de collecte de données sont expliquées dans une lettre de 2008 à Nature, où Thompson et al. Ont inventé le libellé suivant (SST = sea surface temperature):
"Le changement le plus notable dans les archives SST après décembre 1941 est survenu en août 1945. Entre janvier 1942 et août 1945 ~ 80% des observations proviennent de navires d'origine américaine et ~ 5% proviennent de navires d'origine britannique; entre la fin de 1945 et 1949 seulement ~ 30% des observations sont d'origine américaine et environ 50% sont d'origine britannique. Le changement de pays d'origine en août 1945 est important pour deux raisons: premièrement, en août 1945, les navires américains comptaient principalement sur les mesures d'admission dans la salle des machines, tandis que les navires britanniques utilisaient principalement des mesures de seau non isolées; aux mesures de seau non isolées. "
Les observateurs du climat avaient détecté une bosse dans le delta entre l'eau et les températures atmosphériques nocturnes (NMAT). Par conséquent, on pensait qu'ils avaient trouvé le coupable pour le flip inexpliqué de 0,3 degrés C dans les températures autour de 1945, qui les a invités à modifier et à modifier les enregistrements. Les corrections de biais appliquées, selon Thompson, "pourraient augmenter les tendances du siècle en augmentant les SST récents jusqu'à ~ 0,1 deg. C ".
Apparemment, cette correction des biais a été mise en évidence dans le résumé du GIEC 2007 à l'intention des décideurs. La question à poser - comment la correction de 0,1 degrés de Thompson était appliquée - était-elle uniforme? Au cours de quelle période de temps? Est-ce que le nombre de 0,1 degré est une estimation et arbitrairement choisi ? Tient-il compte des erreurs de mesure, celles discutées plus loin dans ce document?
Une question fondamentale se pose: quel est notre record de température? Avec quelle confiance pouvons-nous établir des lignes de tendance et des scénarios futurs? Il est évident que nous devons connaître les chiffres avec une précision de 0,1 degré C pour permettre une interprétation raisonnable des enregistrements et projeter de façon réaliste les températures mondiales futures.
Nous examinerons en détail les méthodes de mesure de la température de l'eau de mer, et nous découvrirons que les données sont très grossières, souvent de plus d'un ordre de grandeur!
Tout d'abord, il est prudent de présenter les fondamentaux, afin d'établir une compréhension commune.
2. Les bases
Nous pouvons probablement convenir que, pour extraire des tendances définies des données de température globales, la résolution de ces données devrait être au moins de +/- 0,1 degré C. Une vieille règle empirique pour toute mesure cite l'instrument ayant une précision supérieure à trois fois de la résolution ciblée. Dans notre cas c'est + / 0.03 degré C.
Les caractéristiques de l'instrument thermique définissent l'erreur en pourcentage de la gamme complète. La résolution de lecture est une autre erreur, tout comme l'erreur de lecture. Exemple: supposons qu'un thermomètre ait une plage de 200 degrés, que la précision de 2% soit de 4 degrés, que la gradation (résolution) soit de 2 degrés. La précision de la lecture peut être de 0,5 degrés, à discerner entre les gradations, si vous «striez correctement».
La température est mesurée directement à l'aide de thermomètres à bulbe et à fonction capillaire à base de liquide, de jauges à cadran bimétalliques et, à l'aide de l'électronique, de thermistances, ainsi que de quelques méthodes spécialisées. Les températures du satellite par satellite sont interprétées indirectement à partir de la réflexion radiative infrarouge.
Nous connaissons tous les thermomètres remplis de capillaires et de liquides que nous rencontrons quotidiennement. Ceux-ci et ceux à base de bimétal ont une précision typique de +/- 1 à 2% et ne sont pas plus précis qu'à 0,5 degré C. Les thermistances peuvent être très précises sur un calibrage précis.
La collecte de données de température dans la nature ne se concentre pas uniquement sur le dispositif de lecture thermique. Il s'agit toujours d'un système qui comprend à divers degrés la méthode de collecte des données, le stockage temporaire des données, la conversion et la transmission des données, la manipulation, etc. le support mesuré, les différents observateurs et interprètes, etc. Tout ceci contribue à l'erreur du système. Les composants d'erreur individuels sont séparés en les erreurs connues connues et les erreurs aléatoires. En outre, nous devons faire attention aux «chiffres significatifs» lors de l'évaluation des contributeurs d'erreur, car une erreur de précision peut s'introduire, lorsque le calcul de l'erreur totale.
Compilation d'erreurs:
Toutes les erreurs identifiées comme des erreurs aléatoires sont combinées en utilisant la racine carrée de la méthode de la somme des carrés (RSS). Les erreurs systématiques sont combinées par sommation algébrique. L'imprécision totale est la somme algébrique de l'erreur aléatoire totale et de l'erreur systématique totale.
3. Méthodes de mesure de la température de l'océan prédominantes
a. Observations par satellite
La collecte de données par des capteurs infrarouges sur les satellites NOAA a mesuré les températures de surface de l'eau avec des radiomètres à haute résolution.
Les mesures sont indirectes et doivent prendre en compte les incertitudes associées à d'autres paramètres, qui ne peuvent être que faiblement estimés. Seule la couche d'eau la plus élevée peut être mesurée, ce qui peut induire une forte erreur diurne. Les mesures par satellite sont entrées en service vers les années 1970, de sorte qu'elles n'ont aucune corrélation avec le profil thermique antérieur. Cependant, comme ce sont des méthodes indirectes de lecture de la température de l'océan et qu'elles comportent de nombreuses couches de correction et d'interprétation avec des aspects d'erreur uniques, elles ne sont pas étudiées ici. Un tel effort justifierait toute une autre évaluation détaillée.
b. Mesure directe de la température de l'eau - historique
Le trempage d'un thermomètre dans un seau d'un échantillon d'eau prélevé a été utilisé avant la nécessité de comprendre les gradients thermiques dans les parties plus profondes de l'océan. Ce dernier est devenu vital pour la guerre sous-marine, avant et pendant la Seconde Guerre mondiale. Auparavant, la connaissance de la température de l'eau n'était nécessaire que pour la prévision météorologique.
Typiquement, un seau en bois a été lancé d'un navire en mouvement, transporté à bord, et un thermomètre à bulbe a été trempé dans ce seau pour obtenir la lecture. Après les premiers en bois, les seaux en toile sont devenus prédominants.
- voir graphique sur site -
a) Seau en bois; (b) un seau en toile; (c) Scoop allemand (version moderne). [Le chiffre de couleur peut être consulté à wileyonlinelibrary.com].
Avec une plus grande attention à la précision, des godets isolés en toile ont été introduits. En plus de la précision typique du thermomètre de 0,5 à 1,0 degré C, les sources d'erreurs aléatoires hautement variables étaient:
profondeur de l'immersion du godet mélange de la couche de surface à partir d'une action variable des vagues et du réchauffement solaire barattage de la couche de surface du sillage du navire Différentiel variable entre la température de l'eau et de l'air direction relative entre le vent et le mouvement du navire amplitude de la vitesse du vent combinée et de la vitesse du bateau intervalle de temps entre la collecte de l'eau et les lectures thermiques réelles temps nécessaire pour que le thermomètre prenne la température de l'eau degré de thermomètre en remuant (ou non) lire au centre par rapport au bord du seau thermomètre à bulbe humide de refroidissement pendant la lecture de la température acuité optique et attitude de l'opérateur Efficacité de l'isolation du godet et des effets de refroidissement par évaporation des fuites échange thermique entre la surface du pont et le godet
Voici une séquence infrarouge montrant comment l'eau se refroidit dans un seau en toile.
- voir graphique sur site -
Figure 3. (a) - (d) Images thermiques prises à des intervalles de 5 min du Met. Office Mk II seau en toile (Figure 1) rempli d'eau chaude accroché devant un ventilateur positionné à droite dans ces images. Le seau n'est pas agité et le couvercle est fermé. Les figures ci-dessus de cet article:
Mesures et modèles du changement de température des échantillons d'eau dans les seaux de température de surface de la mer
Graziella Carella, Alexis R Morris, RÉSUMÉ: L'incertitude dans les ajustements de biais appliqués aux mesures historiques de température de surface de la mer (SST) effectuées à l'aide de godets est considérée comme la plus grande contribution à l'incertitude des tendances de la température de surface globale. Les mesures de la variation de la température des échantillons d'eau dans des seaux en bois et en toile sont comparées aux prévisions des modèles qui ont été utilisés pour estimer les ajustements de biais appliqués dans les analyses quadrillées largement utilisées de SST. Les résultats montrent que les modèles sont globalement capables de prédire la dépendance du changement de température de l'eau au cours du temps sur le forçage thermique et les caractéristiques du godet: volume et géométrie; structure et matériel. Les modèles et les observations indiquent que le paramètre environnemental le plus important entraînant des biais de température dans les mesures historiques du godet est la différence entre les températures de l'eau et du thermomètre mouillé. Cependant, les hypothèses inhérentes à la dérivation des modèles sont susceptibles d'affecter leur applicabilité. Nous avons observé que l'échantillon d'eau devait être vigoureusement agité pour correspondre aux résultats du modèle, qui suppose des conditions bien mélangées. Il y avait des incohérences entre les résultats du modèle et les mesures précédentes effectuées dans une soufflerie en 1951. Le modèle suppose un écoulement incident non turbulent et prédit par conséquent une dépendance à peu près carrée de la vitesse du courant d'air. Les mesures en soufflerie, prises sur une large gamme de flux d'air, ont montré une dépendance beaucoup plus forte. En présence de turbulence, le transfert de chaleur augmentera avec l'intensité turbulente; pour les mesures effectuées sur les navires, le flux d'air incident est susceptible d'être turbulent et l'intensité de la turbulence est toujours inconnue. Pris ensemble, les incertitudes dues aux effets de la turbulence et à l'hypothèse d'échantillons d'eau bien mélangés devraient être substantielles et pourraient représenter le facteur limitant de l'application directe de ces modèles pour ajuster les observations historiques de SST.
Lectures de température d'entrée de moteur:
Le moteur diesel d'un navire utilise une boucle de refroidissement séparée, pour isoler le métal de l'effet corrosif et salissant de l'eau de mer. La température d'entrée d'eau brute est le plus souvent mesurée par jauge (précision typique de 1 degré C et jamais recalibrée), qui est installée entre la pompe d'entrée et l'échangeur de chaleur. Il n'y aurait aucune raison d'installer des thermomètres directement à côté de la coque sans que les données ne faussent le réchauffement de la salle des machines, un emplacement qui serait autrement plus utile à des fins de recherche.
Les influences de mesure aléatoires à considérer:
- profondeur de l'entrée d'eau - degré de mélange de la couche de surface du vent et du soleil - réveil du barattage du navire, également en fonction de la vitesse - différentiel entre l'eau et la température de la salle des machines - température ambiante variable du moteur
De plus, il y a des erreurs de système variable à long terme à considérer:
- apport d'énergie thermique supplémentaire de la pompe d'aspiration - dégradation de l'isolation de la tuyauterie et de l'encrassement interne.
c. Sondes XBT déployées (Bathythermographe extensible)
Les mesures de sonar et le besoin de sous-marins cachés de la détection dans les couches d'inversion thermique ont alimenté le développement initial et le déploiement des sondes XBT. Ils sont lancés à partir de navires et de sous-marins en mouvement. Les données de température sont envoyées à bord du navire via le défilement d'un mince fil de cuivre de la sonde, alors qu'il prend une vitesse descendante légèrement décroissante. La température est lue par une thermistance; le traitement et l'enregistrement des données sont effectués avec des instruments de bord. La profondeur est calculée en fonction du temps écoulé et en fonction de la formule spécifique du fabricant. Les lectures de thermistance sont enregistrées via des changements de tension du signal.
Erreurs aléatoires introduites:
- effet de retard thermique du stockage à bord de la sonde par rapport à la température d'immersion initiale - dérive de calibration induite par le temps de stockage - contrainte dynamique plus changement de l'effet de la température sur la résistance du fil de cuivre pendant la descente - effet de retard thermique variable sur la thermistance pendant la descente - variabilité de la température de surface par rapport à la stabilité des couches d'eau plus profondes - variabilité induite par l'opérateur de l'instrument.
d. Bouées flottantes ARGO
Le concept de ces bouées immergées est une approche astucieuse qui permet à près de 4 000 dispositifs de ce type dans le monde entier d'enregistrer de manière autonome des données sur l'eau, tout en dérivant à différentes profondeurs océaniques. Périodiquement, ils transmettent en surface et par lots le temps, la profondeur (et la salinité) et l'historique des températures enregistrés par satellite aux stations au sol pour interprétation. L'objectif principal d'ARGO est d'établir une quasi-simultanéité des relevés de température de la flotte jusqu'à 2500 mètres afin de brosser un tableau complet de la chaleur contenue dans les océans.
Étonnamment, les seules données de précision fournies par les fabricants ARGO sont la haute précision de 0,001 degré C de leur thermistance étalonnée. Les questions posées au bureau du programme ARGO ont révélé qu'ils n'avaient aucune connaissance d'une erreur du système, une sensibilisation que l'on devrait certainement attendre de cet établissement scientifique sophistiqué. Une enquête sur diverses erreurs avec le fabricant de sondes ARGO prédominant reste sans réponse.
En fait, les erreurs aléatoires suivantes doivent être évaluées:
- temps de simultanéité valide dans les lectures de profondeur et de température, étant donné que les flotteurs se déplacent avec les courants et peuvent passer dans différents modèles de circulation, c'est-à-dire différents verticalement et latéralement - effets de retard thermique - les lectures invalides près de la surface sont éliminées; étendue inconnue de la profondeur de l'erreur - erreur dans les transmissions par lots de l'antenne par satellite due à l'action des vagues - erreur dans les transmissions bidirectionnelles, applicable aux flotteurs de modèle ultérieurs - interférence d'onde et de pulvérisation avec la transmission de données par satellite IRIDIUM haute fréquence 20/30 GHz - lacunes de l'opérateur et de l'enregistrement et mauvaise interprétation des données En outre, il existe des erreurs de résolution, de traitement et d'enregistrement des systèmes d'instrumentation inconnues, telles que la grossièreté de la conversion analogique / numérique, les effets du vieillissement de la batterie flottante, etc. gage sans recherche détaillée.
Les bouées ancrées à long terme ont des lacunes dans la portée verticale, ce qui est limité par leur besoin d'être ancré, ainsi que par la rapidité des lectures et des enregistrements. De plus, ils sont sujets à l'encrassement et perturbent la fonction de capteur de la flore biologique marine. Leur distribution est liée à l'ancrage près du rivage. Cela les rend d'une valeur limitée pour l'étude générale de la température des océans.
F. Sondes de conductivité, température, profondeur (CTD)
Ces sondes présentent la méthode la plus précise de lecture de la température de l'eau à différentes profondeurs. Ils mesurent généralement la conductivité, la température (aussi souvent la salinité) et la profondeur ensemble. Ils sont déployés à partir de navires de recherche stationnaires, équipés d'une grue à flèche pour abaisser et récupérer les sondes instrumentées. Des données thermiques précises sur les thermistances à des profondeurs connues sont transmises en temps réel via un câble aux enregistreurs embarqués. Les mesures de sonde sont souvent utilisées pour calibrer d'autres types de sondes, telles que XBT et ARGO, mais le coût opérationnel et la sophistication en tant qu'outil de recherche les empêchent d'être utilisées sur une large base.
4. Contributions d'erreur significatives dans diverses mesures thermiques océaniques
Ici, nous essayons d'attribuer des erreurs opérationnelles typiques aux méthodes de mesure listées ci-dessus.
a. La méthode Bucket
Folland et al dans l'étude "Corrections des biais instrumentaux dans les données historiques de température de surface de la mer" Q.J.R. Metereol. Soc. 121 (1995) a tenté de quantifier le biais de la méthode du seau. Le document élabore sur les enregistrements de température historiques et les variations dans les types de godets. De plus, il est significatif qu'aucune entité maritime n'ait jamais suivi de protocole pour la collecte de telles données. Les auteurs de ce rapport entreprennent une analyse de transfert de chaleur très détaillée et comparent les résultats à certains essais en soufflerie réels (seaux non isolés se refroidissant de 0,41 à 0,46 degré C). Le calcul des données comprenait de nombreuses variables globales, ainsi que certaines lectures de température d'entrée du moteur. Les corrections de Folland sont de +0,58 à 0,67 degré C pour les godets non isolés et de +0,1 à 0,15 degrés pour les godets en bois.
En outre, Folland et al. (1995) déclarent que «les corrections de la température de la surface de la mer obtenues à l'échelle mondiale et saisonnière qui en résultent augmentent de 0, 11 ° C. C en 1856 à 0,42 deg. C en 1940. "
Il n'est pas clair pourquoi les corrections du 19ème siècle seraient sensiblement plus petites que celles du 20ème siècle. Pourtant, cela pourrait être une conclusion de la prédominance antérieure de l'utilisation de seaux en bois (étant effectivement isolant). Il est également étonnant de voir comment ces chiffres sont corrélés à la déclaration généralisante de Thompson selon laquelle les SSTs récents devraient être corrigés par une erreur de polarisation allant jusqu'à ~ 0,1 deg. C " ? Qu'en est-il d'inclure le nombre de 0,42 degrés ?
En considérant une erreur de système - voir 3b. - les facteurs variables d'importance prédominante sont le refroidissement diurne, saisonnier, solaire et aérien, la répartition de l'eau par rapport à la température de l'air, plus une erreur fixe de précision du thermomètre de +/- 0,5 degré C, au mieux. De manière significative, le remplissage du seau ne se produit pas à plus de 0,5 m sous la surface de l'eau, par conséquent, cette couche d'eau varie grandement en température diurne.
Tabatha, 1978, dit de la mesure sur un navire de recherche canadien - «SST ont été jugés biaisés à environ 0,1 ° C chaud, SST de l'admission du moteur était un ordre de grandeur plus dispersé que les autres méthodes et biaisé 0,3 ° C chaud». Donc, ici les deux méthodes mesurent le biais chaud, c'est-à-dire que les facteurs de correction doivent être négatifs, même pour la méthode du godet, qui sont l'opposé des nombres de Folland.
Où commencer en assignant des valeurs aux facteurs aléatoires ? Il semble presque impossible de simuler un scénario de moyenne valide. Par exemple, faisons un calcul d'erreur re. une température spécifique de la surface de l'eau avec un seau non isolé.
Refroidissement par air 0,50 degrés (aléatoire)
Transfert au bord du pont 0,05 degrés (aléatoire)
Précision du thermomètre 1.0 degrés (fixe)
Lecture et parallaxe 0.2 degrés (aléatoire)
Erreur e = 1,0 + (0,52 + 0,052 + 0,22) 1/2 = 1,54 degré ou 51 fois la précision souhaitée de 0,03 degré (voir aussi section 2.0).
b. Mesures d'admission du moteur
Saur 1963 conclut: "Le biais moyen des températures d'eau de mer rapportées par rapport aux températures de surface de la mer, avec des limites de confiance de 95%, est estimé à 1,2 +/- 0,6 deg F (0,67 +/- 0,3 deg) sur la base de d'un échantillon de 12 navires. L'écart-type est estimé à 1,6 deg F (0,6 deg C) ... Le biais du navire (biais moyen des températures d'injection d'un navire donné) varie de -0,5 deg F à 3,0 deg F (0,3 deg C à 1,7 deg C ) parmi 12 navires. "
Les erreurs de SST d'admission du moteur dépendent fortement des conditions de fonctionnement dans la salle des machines (Tauber 1969).
James et Fox (1972) montrent que les admissions à une profondeur de 7 m ou moins montrent un biais de 0,2 degré C et que les entrées plus profondes ont des biais de 0,6 degré C.
Walden, 1966, résume les enregistrements de nombreux navires comme indiquant 0,3 degré C trop chaud. Cependant, il est douteux qu'une instrumentation précise ait été utilisée pour calibrer les lectures. Par conséquent, son numéro de 0,3 degré est probablement dérivé grossièrement avec des thermomètres standard de précision de ½ ou 1 degré.
Faisons un calcul d'erreur re. une température d'eau spécifique à l'entrée de la coque.
Précision du thermomètre 1.0 degré (fixe)
Salle du moteur ambiant delta 0,5 degré (aléatoire)
Entrée d'énergie de la pompe 0,1 degré (fixe)
Erreur totale 1,6 degré C ou 53 fois l'exactitude souhaitée de 0,03 degrés.
Une condition des mesures d'admission du moteur qui diffère fortement des lectures du godet est la profondeur sous la surface de l'eau à laquelle les mesures sont collectées, c'est-à-dire à plusieurs mètres de la surface. Cette méthode fournit des températures plus fraîches et beaucoup plus stables par rapport aux godets qui pincent l'eau et sautent le long de la surface supérieure. Cependant, la température de la salle des machines semble très influente. De nombreux enregistrements ne sont donnés qu'en degrés complets, ce qui correspond à la résolution typique du thermomètre.
Mais, encore une fois la seule erreur fixe donnée est la précision du thermomètre d'un degré, ainsi que le delta de chauffage de l'énergie de la pompe. Les erreurs variables peuvent être d'une ampleur significative sur les grands navires et elles sont difficiles à généraliser.
Toutes ces grandes variations rendent l'enregistrement de l'admission du moteur presque impossible à valider. En outre, l'enregistrement a été recueilli à un moment où l'étalonnage basé sur la recherche était presque jamais pratiqué.
c. XBT Sondes
Lockheed-Martin (Sippican) produit plusieurs versions, et ils annoncent une précision de température de +/- 0,1 degré C et une précision du système de +/- 0,2 degré C. Aiken (1998) a déterminé une erreur de +0,5 et en 2007 Gouretski a trouvé un biais moyen de +0.2 à 0.4 degré C. La communauté de recherche implique également des variations de précision avec différents dispositifs d'acquisition et d'enregistrement de données et recommande l'étalonnage par des sondes CTD parallèles. Il existe une variante significative de la corrélation profondeur-température, à propos de laquelle les chercheurs tiennent encore des ateliers pour éclairer.
Nous pouvons seulement faire des hypothèses grossières pour l'erreur totale. Compte tenu de l'erreur système de 0,2 degrés répertoriée par le fabricant et de la plage d'erreurs mentionnée ci-dessus, nous pouvons choisir une erreur totale de, disons, 0,4 degré C, soit 13 fois l'erreur souhaitée de 0,03 degré.
d. Flotteurs ARGO
Le principal fabricant de flotteurs basé aux États-Unis, APEX Teledyne, affiche une précision de +/- 0,001 degré C, étalonnée en laboratoire (dégradée à 0,002 degré avec dérive). Ils ont confirmé ce numéro après avoir récupéré quelques sondes après plusieurs années de service. Cependant, il n'y a aucune précision de système donnée, et le fabricant reste muet aux demandes. La communication de l'auteur avec le bureau du programme ARGO révèle qu'ils ne connaissent pas l'exactitude du système. Cela signifie qu'ils connaissent la précision de la thermistance et rien au-delà. La suite de capteurs de température / salinité Seabird Scientific SBE est utilisée dans presque toutes les sondes, mais la société, lors de requêtes par courrier électronique, ne révèle pas sa contribution d'erreur. On ne sait rien sur les erreurs de liaison par satellite ou les précisions de traitement à terre.
Hadfield (2007) rapporte une transection de navire de recherche à 36 degrés de latitude nord avec des mesures CTD. Ils les ont comparés aux données de température du flotteur ARGO des deux côtés du transect et ils sont enregistrés dans les 30 jours et parfois au-delà. En général, les données concordent à moins de 0.6 degré C RMS et à 0.4 degré C à l'est et à 2.0 degrés à l'ouest. Ces lectures ne se rapportent pas à l'exactitude des flotteurs eux-mêmes, mais se rapportent à l'utilité limitée des données ARGO, c'est-à-dire la simultanéité temporelle et la localisation géographique des lectures de température océaniques globales. Cette incertitude indique des limites significatives pour déterminer la teneur en chaleur des océans, ce qui est la raison d'être d'ARGO.
Le manuel de qualité ARGO pour les données CTD et les données transectorielles précise le marquage des données probablement mauvaises. La dérive de température entre deux valeurs moyennes doit être max. 0,3 degré comme critère d'échec, la moyenne à 0,02 et un minimum de 0,001 degré.
Affecter un budget d'erreur aux relevés flottants ARGO signifie certainement beaucoup plus élevé que la valeur de 0,002 degré indiquée par le fabricant.
Alors, essayons:
Erreur système attribuée 0,01 degré (supposé fixe)
Erreur de l'enregistreur de données et granularité 0.01 (fixe)
Transmission de données par lots 0,05 (aléatoire)
Granularité des données au sol 0.05 (fixe)
Erreur totale 0.12 degrés, ce qui est quatre fois la précision souhaitée de 0,03 degrés.
Cependant, la corrélation de Hadfield avec les lectures CTD d'un transect de navire varie jusqu'à 2 degrés, ce qui est attribuable à l'écart temporel et géographique et à une certaine quantité de courant océanique et de changement thermique saisonnier, en plus des erreurs de flottement inhérentes.
L'épisode de refroidissement océanique Willis 2003/5 de la NASA:
Cette question est discutée plus en détail dans la section sommaire 5.
En 2006, Willis a publié un article qui faisait état d'une brève période de refroidissement des océans, basée sur les enregistrements des profils flottants ARGO.
"Les chercheurs ont constaté que la température moyenne de l'océan supérieur a augmenté de 0,09 degré Celsius (0,16 degrés F) de 1993 à 2003, puis a diminué de 0,03 degré Celsius (0,055 degrés F) de 2003 à 2005. La baisse récente est une baisse égale à environ un cinquième de la chaleur acquise par l'océan entre 1955 et 2003. "
La correction papier de 2007 aborde cette tendance apparente du refroidissement en 2003/4 en supprimant des flotteurs ARGO programmés à tort (liés à la pression) et en corrélant des données XBT biaisées à chaud plus tôt, qui, ensemble, minimiseraient considérablement l'ampleur de cet événement de refroidissement.
L'objectif principal de Willis consistait à déterminer la teneur en chaleur de l'océan et les influences sur le niveau de la mer. Ce qui suit sont des extraits de son article, avec et sans le texte de correction.
Avant correction:
"L'incertitude moyenne est d'environ 0,01 ° C à une profondeur donnée. Le signal de refroidissement est réparti sur la colonne d'eau, la plupart des profondeurs subissant un certain refroidissement. Une petite quantité de refroidissement est observée à la surface, bien que beaucoup moins que le refroidissement en profondeur. Ce résultat du refroidissement de surface de 2003 à 2005 est cohérent avec les produits SST mondiaux [par ex. http://www.jisao.washington.edu/data_sets/global_sstanomts/]. Le refroidissement maximum se produit à environ 400 m et un refroidissement important est encore observé à 750 m. Ce modèle reflète la superposition compliquée des modèles de réchauffement et de refroidissement régionaux avec différentes dépendances en profondeur, ainsi que l'influence des changements de la circulation océanique et du soulèvement associé de la thermocline.
Le signal de refroidissement est toujours fort à 750 m et semble s'étendre plus profondément (figure 4). En effet, des estimations préliminaires de 0-1400 m OHCA basées sur des données Argo (non montrées) montrent qu'un refroidissement supplémentaire s'est produit entre des profondeurs de 750 m et 1400 m. "
Après correction:
".... un défaut qui a entraîné des valeurs de température et de salinité associées à des valeurs de pression incorrectes. La taille du décalage de pression dépendait du type de flotteur, variait d'un profil à l'autre, et variait de 2 à 5 db près de la surface à 10 à 50 db à des profondeurs inférieures à environ 400 db. Presque tous les flotteurs de l'OMSI FSI (287 instruments) et environ la moitié des flotteurs WHOI SBE (environ 188 instruments) ont souffert d'erreurs de cette nature. La majeure partie de ces flotteurs ont été déployés dans l'océan Atlantique, où le refroidissement parasite a été trouvé. Le biais froid est supérieur à -0,5 ° C entre 400 et 700 m dans la moyenne sur les données affectées.
L'erreur de profondeur de 2% présentée ici est en bon accord avec leurs résultats pour la période. La raison du refroidissement apparent dans l'estimation combinant les données XBT et Argo (figure 4, ligne pointillée épaisse) est le rapport croissant des observations d'Argo aux observations XBT entre 2003 et 2006. Ce rapport de variation fait que l'estimation combinée montre un refroidissement comme il s'éloigne des données XBT polarisées à chaud et vers les valeurs Argo plus neutres.
Des erreurs de pression systématiques ont été identifiées dans les profils de température et de salinité en temps réel d'un petit nombre de flotteurs Argo. Ces erreurs ont été provoquées par des problèmes de traitement des données Argo et des versions corrigées de nombreux profils affectés ont été fournies par le fournisseur float.
Ici, les erreurs dans les équations de taux de chute sont proposées comme étant la cause principale du biais chaud XBT. Pour la période d'étude, on trouve que les sondes XBT attribuent des températures à des profondeurs d'environ 2% trop profondes. "
Notez que Willis et ses co-auteurs ont estimé le contenu thermique des 750 mètres supérieurs. Cette zone représente environ 20% de la profondeur moyenne de l'océan mondial.
En outre, la figure 2 donnée dans l'article de Willis montre le profil de profondeur thermique de l'un des flotteurs ARGO éliminés, c'est-à-dire correct par rapport à erroné.
- voir graphique sur site -
Fig. 2. (à gauche) Anomalie de température en fonction de la profondeur par rapport au WGHC pour les flotteurs WHOI avec des valeurs de pression incorrectes (ligne bleue) et les flotteurs non-WHOI de la même région (ligne rouge). Les données ont été limitées à l'Atlantique et à des latitudes comprises entre 50 ° S et 50 ° N du 1er janvier 2003 au 30 juin 2007. (droite) Effet de la correction pour un flotteur WHOI FSI unique dans l'Atlantique sud. De Willis 2007
En calculant l'erreur à une profondeur spécifique, nous pouvons obtenir un différentiel de 0,15 degré, allant d'environ 350 à 1100 m. Cette valeur diffère de la distorsion à froid de -0,5 degré comme indiqué ci-dessus, bien que définie à 400 et 700 mètres.
Toutes ces explications de Willis sont très déroutantes et n'inspirent aucune confiance dans toutes les précisions des mesures thermiques ARGO.
5. Observations et résumé
5.1 Relevé des températures océaniques avant 1960/70
Essayer d'extraire un enregistrement de chauffage de l'océan et des lignes de tendance pendant les périodes de seau et les premières lectures d'entrée de moteur semble une entreprise futile en raison de la vaste distorsion d'erreur de données systématique et aléatoire.
Les lectures d'eau de seau ont été faites à des fins météorologiques seulement et
a. sans protocoles de qualité et avec une éventuelle qualification du personnel marginal
b. par de nombreux pays, marines et navires de la marine marchande
c. sur des océans distincts et souvent contenues dans les routes commerciales
ré. de manière significative, ramasser seulement à partir d'une mince couche de surface
e. avec une instrumentation qui était beaucoup plus grossière que la qualité désirée
F. soumis à de larges variations physiques d'échantillonnage et à des perturbations environnementales
Les données de température d'entrée du moteur étaient également grossières, en raison de
a. manque de contrôles de qualité et de journalisation par des opérateurs peu qualifiés
b. thermomètres impropres à la précision nécessaire
c. soumis à de grandes perturbations de l'intérieur de la salle des machines
d. variations de la profondeur d'admission
e. et encore, souvent confiné à des océans spécifiques et des routes de la circulation
Les températures d'entrée du moteur différaient significativement des relevés de surface les plus élevés,
a. étant d'une couche de profondeur différente
b. étant plus stable que la couche supérieure chauffée diurne et solaire
Observation # 1:
Au cours de la transition dans les méthodes de mesure de la température de l'océan primaire, il semble logique de trouver un renversement de l'enregistrement de la température autour de la Seconde Guerre mondiale en raison des changements dans la méthode prédominante de collecte de données de température. Cependant, trouver un facteur de correction spécifique pour les données ressemble plus à de la spéculation, parce que les deux méthodes de collecte historiques sont trop disparates dans les caractéristiques et dans ce qu'elles mesurent. Cela semble être un cas de la comparaison proverbiale des pommes et des oranges. Cependant, le fait d'un début de refroidissement rapide en 1945/6 doit encore être reconnu, car les années suivantes sont restées fraîches. Ensuite, la courbe de réchauffement au milieu des années soixante-dix a recommencé brusquement, comme le montre le graphique de la section 1 si distinctement.
Même si l'enregistrement XBT est d'une précision limitée, comme l'indique la précision du système d'un fabricant de +/- 0,2 degré, nous devons reconnaître ses avantages et ses inconvénients, en particulier au vu du dossier ARGO.
Données XBT:
une. ils remontent aux années 1960, avec un dossier étendu
b. un calibrage continu vers les mesures CBT est nécessaire car les formules de profondeur de calcul ne sont pas toujours précises
c. Les données XBT sont fermes en termes de temps et d'origine géographique simultanés, ce qui permet des comparaisons statistiques
d. biais reconnu des lectures de profondeur, qui sont relatable à la température
Données ARGO:
a. la quantité utile et la distribution des cycles flottants n'existent qu'en 2003
b. la précision des données est considérée comme extrêmement élevée, mais avec une précision du système inconnue
c. la collecte de données peut être référencée uniquement au moment de la transmission des données par satellite. La direction du courant océanique intermédiaire et le mélange thermique pendant les cycles de flottaison ajoutent aux incertitudes.
d. l'étalonnage par sondage CTD est entravé par la séparation géographique et temporelle et a conduit à des écarts de température de trois ordres de grandeur, c'est-à-dire 2,0 (Hadfield 2007) contre 0,002 degrés (déclaration du fabricant)
e. les erreurs de programmation ont historiquement lu des corrélations de profondeur défectueuses
f. erreurs inconnues de transmission de données par satellite, pouvant se produire avec l'atténuation du signal de fréquence 20/30 GHz due à l'action des vagues, aux embruns et à la pluie dure.
Observation n ° 3:
Les données du flotteur ARGO, malgré l'intention initiale de créer une carte précise du contenu calorifique de l'océan, doivent être reconnues compte tenu de ses limites. La communauté ARGO ne connaît pas l'erreur du système de température du flotteur.
La recherche Willis de la NASA sur l'enquête 2003/4 sur le refroidissement des océans laisse beaucoup de questions ouvertes:
a. Est-il possible d'élargir la validité de certaines lectures de refroidissement ARGO d'une partie de l'Atlantique à la base de données de l'ensemble de l'océan mondial ?
b. Est-il crédible de conclure qu'une correction à un faible pourcentage de profils de température décalés en profondeur erronés à travers une gamme verticale étroite a un impact thermique suffisant sur la masse de tous les océans, comme le refroidissement global ou non ?
c. Willis soutient que l'apparition de lectures ARGO précises autour de l'année 2003 par rapport à l'enregistrement antérieur de XBT biaisé chaud a déclenché l'apparition apparente du refroidissement de l'océan. Cependant, ce biais chaud XBT était bien connu à ce moment-là. N'aurait-il pas pu expliquer ce biais en comparant l'ARGO avant-après à sa notoriété ?
d. Pourquoi le biais de -0,5 ° C donné par Willis diffère-t-il significativement du différentiel de 0,15 degrés que l'on peut voir sur son graphique ?
Observation n ° 4:
Le sujet de recherche de Willis et al semble être un exemple de mélange inapproprié de deux types génériques différents de données (XBT et ARGO) et conclut, étonnamment
a. l'enregistrement antérieur à 2003 devrait être actualisé pour les troubles de refroidissement apparents et
b. cet enregistrement antérieur à 2003 devrait toujours être valable pour déterminer la ligne de tendance de la chaleur calorifique océanique.
Willis déclare "... le refroidissement de surface de 2003 à 2005 est cohérent avec les produits SST globaux" (SST = température de surface de la mer). Cette déclaration contredit la conclusion ultérieure selon laquelle le refroidissement a été invalidé par les résultats de ses corrections de 2007.
En outre, la manipulation par Willis des méta-données flottantes avec les données XBT est assez confuse pour faire une question de ses conclusions dans le document de correction de 2007.
Observations sommaires
Il semble que l'historique des relevés de température du godet et de l'admission des moteurs devrait être considéré comme anecdotique, historique et excessivement grossier, plutôt que de servir la recherche scientifique des tendances du réchauffement de l'océan. Avec l'avènement des sondes XBT et ARGO, les lignes de tendance sont lues avec plus de précision, mais elles sont souvent masquées par l'erreur des systèmes d'instruments.
Une tentative d'établissement de la tendance de la température de l'océan doit tenir compte de l'ampleur des erreurs aléatoires par rapport aux erreurs de système connues. Si l'on essaie de trouver une ligne de tendance dans un champ d'erreur aléatoire élevée, la valeur moyenne peut se trouver à l'extrême de la bande d'erreur, pas en son centre.
La température de l'océan devrait être discernable à environ 0,03 degrés C de précision. Cependant, les erreurs système dépassent souvent cette précision jusqu'à trois ordres de grandeur!
Si les recherches citées par Willis de la NASA sont symptomatiques pour la communauté scientifique océanique en général, il ne faut pas faire confiance à la diligence scientifique supposée dans la conduite de l'analyse.
De nombreux scientifiques semblent éviter de faire preuve d'une grande prudence dans la prise en compte appropriée de l'origine des données pour leur exactitude et leur pertinence, compte tenu de l'importance accordée à la manipulation statistique des métadonnées et de ce qui se trouve sur l'écran. Souvent, il n'y a tout simplement pas assez d'informations sur la fidélité des données brutes pour faire des estimations réalistes de l'erreur, ni pour tirer des conclusions quant à savoir si les données sont appropriées pour ce qui est utilisé.
En outre, la base de la moyenne statistique signifie faire la moyenne de la même chose. La moyenne des données de température des océans au cours du temps ne peut pas combiner les moyennes d'un enregistrement d'origine, d'instruments et de méthodes de données très variables. Leur pedigree individuel doit être connu et pris en compte! Enfin, une proposition:
Thompson, en identifiant l'oscillation de la température de l'ère de la Seconde Guerre mondiale entre les enregistrements d'entrée du godet et du moteur, les avait corrélés à NMAT, c'est-à-dire les températures nocturnes pour chacune des deux méthodes de collecte. Les NMAT peuvent constituer un moyen - probablement limité - de valider et de relier les données disparates depuis le XIXe siècle jusqu'aux futures enquêtes par satellite.
Ceci pourrait être accompli par des croisières de navire de recherches dans les zones océaniques froides, tempérées et chaudes, mesurant simultanément, c'est-à-dire re. l'heure et le lieu, les températures d'entrée du seau et du moteur représentatives et le déploiement d'une poignée de sondes XBT et ARGO, tout en sondant le CBT en même temps. Et tous ces processus doivent être corrélés dans des conditions de nuit similaires et avec des mesures satellitaires localisées. Avec ce calibrage croisé, on pourrait retracer les enregistrements historiques et déterminer les températures de delta à leurs NMAT, où une telle correspondance peut être trouvée. De cette façon, les NMAT pourraient devenir la pierre de Rosette pour valider les enregistrements océaniques anciens, récents et futurs. Ainsi, les tendances passées et futures peuvent être évaluées plus précisément. Assurément, le financement de ce projet devrait être facile, car il corrélerait et confirmerait la validité d'une grande partie des lectures de la température de l'océan, passées et futures.
Ce court billet est une caricature de la façon de travailler de nombreux pseudo-scientifiques. J’ai capté cette image dans les Hauts-de-Seine il y a trois jours et comme vous pouvez le constater il s’agit bien d’un bananier en fleur. Je doute que la « popote » conduise à un régime de belles bananes …
- photo d'un bananier (avec fleur !) -
Mais il n’y a aucun doute le climat s’est réchauffé puisqu’un bananier a fleuri dans la banlieue parisienne en plein air. C’est ainsi que travaillent les spécialistes du climat et les anglo-saxons appellent ce genre de malhonnêteté du « cherry-picking ».
Une photo d'inuits alaskiens faisant la 'popotte' autour d'un petit feu de camps aurait suffit ou, le cadavre désossé d'un pingouin victime d'un 'Thanksgiving' décalé; mais, c'est un bananier (!).
Les bananiers poussent en serres jusqu'au pôle Nord et, dehors l'été. L'hiver, le gel s'empare de la plante pleine d'eau mais, au printemps, des pousses repoussent !
En métropole, il faudra 6 à 7 ans pour qu'un bananier puisse émettre une fleur (9 mois en Martinique !), puis 'bananes' de 10 cm qui mûrissent en 2 mois (!!). ______________________________
Stormy Daniels a été arrêtée dans un club de strip-tease de Columbus, Ohio, lors de sa tournée "Make America Horny Again" pour avoir permis à un client de la toucher sur scène, selon son avocat Michael Avenatti. Selon le compte Instagram de Daniels, elle devait jouer et le club Sirens à Columbus, Ohio.
Après l'arrestation, Avenatti a déclenché une série de tweets: "Je viens de dire que mon client @StormyDaniels a été arrêté à Columbus Ohio dans le même acte qu'elle a joué à travers le pays dans près d'une centaine de clubs de strip-tease". C'était une installation et motivée politiquement. "
"Elle a été arrêtée pour avoir soi-disant permis à un client de la toucher sur scène, d'une manière non sexuelle!" Il a ensuite tweeté.
Michael Avenatti @MichaelAvenatti Je viens de dire que mon client @StormyDaniels a été arrêté à Columbus Ohio dans l'ensemble du même acte qu'elle a effectué à travers le pays dans près d'une centaine de clubs de strip-tease. C'était une installation et motivée politiquement. Ça sent le désespoir. Nous allons combattre toutes les accusations fausses. #Basta 6h47 - le 12 juillet 2018
Michael Avenatti @MichaelAvenatti Elle a été arrêtée pour avoir soi-disant permis à un client de la toucher alors qu'elle était sur scène d'une manière non sexuelle! Vous plaisantez j'espère ? Ils consacrent des ressources d'application de la loi aux opérations de piqûre pour ceci ? Il doit y avoir des priorités plus élevées !!! #SetUp #Basta 07h06 - 12 juillet 2018
Michael Avenatti @MichaelAvenatti Nous attendons qu'elle soit libérée sous caution sous peu. Nous nous attendons également à ce qu'elle soit accusée d'un délit pour avoir permis de «toucher». Nous allons contester avec véhémence toutes les accusations. #Basta 07h27 - 12 juillet 2018
Daniels a été arrêté en vertu d'une loi de l'Ohio connue sous le nom de Community Defense Act, qui interdit à quiconque de toucher un danseur nu ou semi-nu, à moins qu'ils ne soient liés.
Cassandra Fairbanks @CassandraRules Apparemment dans une partie de son acte, elle prend un client sur scène ou quelque chose. Pendant ce temps, elle les a touchés ou ils l'ont touchée, mais non sexuellement ... cependant, en Ohio, les stripteaseurs ne peuvent toucher personne qui n'est pas un parent quand ils sont nus ou semi-nus.
PirateKing @AlPirateKing En réponse à @CassandraRules Pourquoi a-t-elle été arrêtée ? 9h14 - 12 juillet 2018
Concrètement, l'acte «interdit à un salarié qui apparaît régulièrement nu ou dénudé dans les locaux d'une entreprise à caractère sexuel, alors qu'il se trouve sur les lieux et nue ou dénudé, de toucher sciemment un client qui n'est pas membre de sa famille immédiate. . ... ou permettre à un client qui n'est pas membre de la famille immédiate de l'employé ou à un autre employé qui n'est pas un membre de la famille immédiate de l'employé de toucher les vêtements de l'employé ou de l'employé.
Certaines «touches» font face à des pénalités plus graves. Toucher les parties génitales d'un danseur, les fesses ou la «poitrine féminine en dessous d'un point immédiatement au-dessus du sommet de l'aréole» est un délit au premier degré, passible de six mois de prison et d'une amende de 1 000 $. Une deuxième infraction est un délit au quatrième degré, passible d'une peine d'emprisonnement pouvant aller jusqu'à 30 jours et d'une amende de 250 $. -Dispatch.com
Alors qu'Avenatti prétend que cela est politiquement motivé, peut-être la plus grande question est pourquoi l'Ohio ne laissera pas une personne au hasard toucher une strip-teaseuse, tandis que quelqu'un lié à la même strip-teaseuse peut aller en ville? Peut-être que Stormy aurait dû sauter l'Ohio et s'envoler pour voir les enfants migrants qu'elle avait promis de visiter à la frontière, qu'elle n'a d'ailleurs pas trouvé le temps de faire malgré une performance de moins de cinq kilomètres la semaine dernière.
Au cas où vous vous demanderiez à quoi ressemble Stormy, Amanda Whiting du Washingtonian a détaillé son expérience des seins de Stormy dans les moindres détails cette semaine.
Sentir les seins de Stormy Daniels contre votre joue, c'est comme plonger tête première dans une fosse à balles de velours. Ses seins sont le parfait rapport de doux à ferme. Quand je dis à Stormy Daniels à quel point ses propres seins sont doux, dans un cri de "Material Girl", elle dit "merci" dans une expiration miraculeusement audible et installe ses lèvres dans un baiser sur ma tempe droite. Je lui donne mon dernier $ 7 et recule dans les ombres bleu-noir.
Quand j'hésite, Stormy prend le dessus, posant mon visage contre sa poitrine, qui a l'impression de rebondir dans le mur d'un moonbounce de guimauve. Elle murmure à mon oreille. Elle m'embrasse bonne nuit. Elle me laisse lui donner mon argent. -Washingtonian
JUSTICE - L'ALLEMAGNE AUTORISE LA REMISE À MADRID DE PUIGDEMONT
La justice allemande a autorisé jeudi la remise à l'Espagne du leader indépendantiste Carles Puigdemont pour malversations. «Nous nous battrons jusqu'au bout», assure celui-ci.
12.07.2018, 11h22
La justice allemande a autorisé jeudi la remise à Madrid du chef indépendantiste catalan Carles Puigdemont pour malversations. Elle a par contre rejeté le motif plus grave de rébellion pour lequel il est inculpé en Espagne.
«L'extradition pour l'accusation de détournement de fonds publics est recevable, une extradition pour l'accusation de rébellion n'est pas recevable», a indiqué le tribunal du Schleswig-Holstein. Il revient désormais au procureur d'organiser cette remise aux autorités espagnoles.
Dans l'intervalle, «Carles Puigdemont reste libre», a ajouté le tribunal. Il a précisé par la suite qu'il allait «décider sous peu de l'autorisation d'extrader l'accusé pour détournement de fonds».
Carles Puigdemont a assuré qu'il se battrait «jusqu'au bout». «Nous avons vaincu le principal mensonge soutenu par l'Etat. La justice allemande dit que le référendum du 1er octobre n'est pas de la rébellion», a ajouté Puigdemont.
Carles Puigdemont @KRLS Hem derrotat la principal mentida sostinguda per l'Estat. La justícia alemanya nega que el referèndum del 1 d'octubre fos rebel·lió. Cada minut que passen els nostres companys a la presó és un minut de vergonya i injustícia. Lluitarem fins al final, i guanyarem! 12:21 - 12 juil. 2018
Le successeur de Puigdemont à la tête du gouvernement catalan, Quim Torra, a de son côté assuré sur Twitter que la décision de la justice allemande «démontre une fois de plus les tromperies et les mensonges de poursuites judiciaires qui n'auraient jamais dû être entamées».
Accusation «aberrante»
La décision du tribunal porte un coup aux chefs d'accusations espagnols. Elle peut empêcher un procès pour rébellion, crime passible de 30 ans de prison en Espagne: «la cour part du principe que le tribunal espagnol respectera (la décision allemande) et qu'il ne poursuivra pas l'accusé Puigdemont pour rébellion en plus de l'accusation de corruption».
Les juges ont aussi rejeté les arguments de l'indépendantiste catalan qui estimait être victime de poursuites politiques et que dès lors son extradition devait être interdite. «Il est aberrant de porter (une telle accusation) contre l'Etat espagnol, membre de la communauté de valeur et de l'espace juridique de l'Union européenne», estime le tribunal.
Poursuivi pour rébellion et détournements de fonds en Espagne en raison du référendum d'indépendance catalan organisé à l'automne 2017, Carles Puigdemont s'était réfugié en Belgique après sa destitution de la présidence catalane par Madrid et de là voyageait pour tenter d'internationaliser son combat. Il avait été interpellé fin mars dans le nord de l'Allemagne. Il revenait d'un déplacement en Finlande, en voiture, en route pour la Belgique.
Les émissions de gaz carbonique les plus basses en sept décennies dans l'Amérique de Trump
Anthony Watts 12 juillet 2018
"Nous soupçonnons que vous n'en entendrez pas trop parler des médias traditionnels libéraux, ou du mouvement écologiste, ou même d'Al Gore", affirme zerohedge.com. "Mais, selon le dernier rapport sur l'énergie de l'Energy Information Administration (EIA), sous le président Trump, les émissions de gaz carbonique par habitant sont maintenant les plus bas qu'ils ont été en près de sept décennies."
Encore plus intéressant est le fait que les émissions de carbone des États-Unis ont chuté tandis que les émissions de la consommation d'énergie pour le reste du monde ont augmenté de 1,6 %, après une croissance faible ou nulle pour les trois années de 2014 à 2016.
Les États-Unis ont émis 15,6 tonnes métriques de gaz carbonique par personne en 1950. Après avoir augmenté pendant des décennies, il a diminué ces dernières années pour atteindre 15,8 tonnes métriques par personne en 2017, les niveaux les plus bas mesurés en 67 ans.
Explications: Notre planète tourne vers l'Est (où est le soleil), l'Europe laisse donc son atmosphère à l'océan Atlantique où le phytoplancton absorbe totalement le gaz carbonique au ras des vagues. Donc, quelques heures plus tard apparait l'Amérique. Les USA (entr'autres) sont envahi par cette atmosphère océanique et diffère donc ses productions de gaz carbonique inoffensif vers la Californie via Texas. Idem pour les États de l'Ouest qui laissent à l'océan Pacifique ses gaz bienfaiteurs (le gaz carbonique est transformé en nano-particules de carbone (charbon) et qui se déposent au fond des océans ou est absorbé par les poissons) qui seront absorbés par le phytoplancton Pacifique, etc, etc.
Le gaz carbonique se recycle indéfiniment en charbon qui sera brûlé, émettra du gaz carbonique qui deviendra... etc, etc.
Témoignage : comment les anti-OGMs mettent en péril la recherche scientifique
La pression des anti-OGM vient mettre en danger la recherche scientifique elle-même. Un jeune chercheur témoigne sur les nombreuses pressions qu’il doit subir sur le sujet, et qui le font renoncer à la recherche sur le sujet.
Par Devang Mehta. 12 JUILLET 2018
Il y a quelques semaines, comme des milliers d’autres scientifiques du monde entier l’ont fait, j’étais face à un public et j’ai soutenu ma thèse de doctorat devant un jury composé de scientifiques chevronnés.
La thèse de doctorat est probablement l’étape la plus importante d’une carrière scientifique. C’est en partie un examen et en partie un rituel – les soutenances de thèses de doctorat aux Pays-Bas, par exemple, comportent un jury en robe et un maître de cérémonie avec une bâton de cérémonie. Dans mon université en Suisse, la tradition veut que les doctorants mettent un chapeau fantaisiste fabriqué par les collègues chercheurs juste au moment où les résultats (espérons-le, une admission) sont annoncés. Mon chapeau présentait (parmi plusieurs allusions à mon addiction pour Twitter) des références à la technologie CRISPR et aux diverses plantes génétiquement modifiées sur lesquelles j’avais travaillé pour mon doctorat.
Voyez-vous, depuis quatre ans, je suis intégré dans un groupe de recherche suisse spécialisé dans la création d’organismes génétiquement modifiés, ou OGM (les scientifiques préfèrent utiliser les termes organismes génétiquement modifiés ou transgéniques plutôt que OGM). Et non, nous ne sommes pas financés par Monsanto, et nos OGM sont en grande partie libres de brevets.
Néanmoins, mon temps dans la recherche sur les OGM et la création de plantes résistantes à des virus a signifié qu’il a fallu faire face aux réactions de manière écrasante négatives que le sujet suscite chez tant de gens. Celles-ci vont des conversations quotidiennes s’arrêtant dans un silence gêné quand le sujet de mon travail est évoqué, aux trolls haineux sur Twitter, et même à la crainte occasionnelle que des contestataires puissent détruire nos recherches. Il n’est donc pas étonnant qu’après avoir terminé mon doctorat, je sois en partie enthousiaste et en partie soulagé de passer à un nouveau laboratoire pour travailler sur des questions plus fondamentales en biologie végétale : comment les plantes font pour contrôler les niveaux d’activité de leurs gènes.
RÉACTIONS ET CRITIQUES
Malheureusement, je ne suis pas le seul. Les premières plantes génétiquement modifiées disponibles sur le marché ont été développées au début des années 1990 dans des laboratoires financés par des fonds publics en Europe et aux États-Unis. Dans les années qui ont suivi, pas moins d’un quart des universités européennes ont arrêté leurs programmes de recherche sur les OGM, certains en raison d’une perte de financement et d’autres parce que les scientifiques ont quitté la sphère des OGM, lassés par les réactions et les critiques.
Ma première expérience de l’intensité des croyances anti-OGM, je l’ai vécue lors d’une table ronde publique sur la brevetabilité des plantes et les OGM organisée par mes collègues. Le panel a été interrompu par un manifestant qui criait que les aliments génétiquement modifiés (GM) étaient responsables de l’autisme des enfants de ses amis américains. Comme les panélistes ont essayé de l’expliquer, il n’y a pas de lien de causalité entre l’autisme et les OGM (ou les vaccins d’ailleurs), et les OGM se sont avérés être parfaitement sûrs pour la consommation humaine. Mais le contestataire a rejeté ces arguments d’un revers de main en faveur de ce qui ne peut qu’être décrit comme une croyance conspirationniste solidement chevillée au corps. Cela a vraiment montré à quel point les efforts des chercheurs en matière de communication scientifique pouvaient être vains.
Des interactions de ce genre – en direct et sur les réseaux sociaux – se produisent tout le temps dans les discussions sur les OGM et les vaccins à travers le monde. Il semble y avoir un groupe de militants mécontents convaincus que certains scientifiques sont prêts à faire du mal à leurs enfants, et rien de ce que nous pouvons dire ne leur fera changer d’avis.
Personnellement, je suis profondément troublé à l’idée que peu importe les mesures que je prends, il y aura toujours des gens qui penseront que mes recherches leur nuiront ; et cela suscite un profond sentiment d’injustice. Injustice parce qu’en tant que chercheurs sur les OGM, nous sommes obligés de faire un gros travail quand il s’agit de défendre la science, ce que nos collègues de la recherche fondamentale n’auront jamais à faire. Par exemple, un de mes meilleurs amis travaille sur un remède contre un trouble rare de la peau. Je suis à peu près certain qu’il n’a jamais eu à répondre à des questions telles que : « Votre recherche va-t-elle être brevetée ? » Ou aux accusations persistantes d’être un vendu à Big-Ag, Big Agriculture.
PAS VENDU À BIG-AG
En dehors de la haine pure vomie par les activistes anti-OGM, oralement et en ligne, je trouve aussi des fautes chez mes collègues scientifiques. Trop souvent, les autres scientifiques ignorent la question des OGM, ou la traitent simplement comme une technologie dont nous pouvons nous passer (nous ne pouvons pas, soit dit en passant, pas si nous voulons nourrir 9 milliards de personnes d’ici 2050). Par exemple, c’est un secret de polichinelle au sein de la communauté scientifique végétale en Europe que les propositions de recherche sur les OGM ont très peu de chances d’obtenir un financement public. Ceci en dépit du fait que plusieurs agences européennes, sociétés scientifiques [il y a deux liens ici] et études financées par des fonds publics ont jugé que les OGM sont parfaitement sûrs et même qu’ils sont un outil précieux pour lutter contre la faim dans le monde.
Un des résultats de cette diabolisation des OGM, même dans le milieu universitaire, est que les chercheurs dans un nouveau domaine de génie génétique appelé biologie synthétique utilisent maintenant le « cas OGM » comme un exemple de mauvaise communication scientifique et tentent d’établir des limites non scientifiques entre la recherche sur les OGM et leur propres recherches, dans l’espoir d’échapper en fin de compte à l’étiquette OGM.
Les scientifiques travaillant avec de nouvelles technologies d’amélioration des plantes font exactement la même chose. Pour tenter d’éviter le label OGM, ils ont commencé à établir, à mon avis, des distinctions absurdes entre différents types de produits du génie génétique tels que les cisgéniques et les OGM/transgéniques (les premiers sont des plantes qui ont été conçues pour contenir des « gènes » de la même espèce ou d’une espèce voisine, alors que les transgéniques contiennent des gènes d’une espèce différente). C’est une distinction scientifiquement dénuée de sens, créée simplement par la peur de l’appellation « OGM ». Avec l’avènement de CRISPR, j’ai remarqué le même phénomène : des scientifiques commercialisent leurs produits CRISPR en déclarant fièrement qu’ils sont « non-OGM », même s’ils savent que les OGM sont parfaitement propres à la culture et à la consommation.
Un autre point qui rend la communication scientifique particulièrement difficile pour les chercheurs en OGM comme moi est l’énorme fossé entre les activistes anti-OGM du monde riche et les agriculteurs et consommateurs du Sud pour lesquels nous déployons notre science. En tant que scientifique indien travaillant en Suisse, je vois cela tout le temps au travail. Comment dois-je expliquer les conséquences de l’abandon d’une technologie qui peut aider à nourrir des millions de gens à des étudiants suisses qui jouissent du niveau de vie le plus élevé au monde ? Je n’ai pas encore trouvé la réponse, et je ne pense pas que je la trouverai un jour.
UNE PROPOSITION DE CARRIÈRE RISQUÉE
Au-delà de la question de l’acceptation du public et, franchement, de la chute de nombreux membres de la communauté scientifique dans les croyances pseudoscientifiques, je suis également heureux de m’éloigner de la recherche transgénique parce que l’activisme anti-OGM des deux dernières décennies a fait d’une carrière dans la recherche sur les OGM une proposition risquée. Le laboratoire où j’ai mené ma recherche de thèse a une histoire riche en science des OGM. C’est dans ce laboratoire suisse (et avec des collaborateurs de l’autre côté de la frontière en Allemagne) que le Riz Doré a été conçu et créé. Le Riz Doré est un riz enrichi en vitamine A développé spécifiquement pour les pays asiatiques où il a le potentiel de soulager le problème de la carence en vitamine A (la principale cause de cécité évitable chez les enfants). Le chercheur à l’origine du projet, Ingo Potrykus, a commencé la recherche en 1991 et a produit les premières plantes de riz doré en 1999 – une réalisation remarquable qui l’a vu honoré par la couverture du magazine Time. (Potrykus a pris sa retraite de mon université cette année-là.) Presque 20 ans plus tard, sa création, une variété végétale qui a passé à plusieurs reprises les tests de sécurité réglementaires, n’est toujours pas disponible pour les enfants qui en ont le plus besoin.
Il y a quelques années, Potrykus (alors âgé de 81 ans) publiait un article dans la revue The Annual Review of Plant Biology, intitulé « Du concept de totipotence aux céréales biofortifiées » ; contrairement à ce que laisse entendre un titre très académique, c’est une autobiographie fascinante d’un chercheur sur les OGM qui a « réussi ». Dans l’article, Potrykus présente un compte rendu de première main de la lente évolution de l’enthousiasme initial pour la création de grains de riz contenant de la vitamine A vers une histoire de déceptions répétées. Il raconte sa joie d’avoir pu présenter ses étonnantes découvertes lors de son séminaire de départ à la retraite à mon université, puis la lente décélération du projet confronté à l’opposition publique ; la presse négative enrênée par des activistes anti-OGM ; les blocages réglementaires qui ont ralenti l’adoption de la technologie sous forme de variétés de riz utilisées par les agriculteurs asiatiques ; la réticence des institutions publiques à faire face à l’opposition militante ; et un manque de financement pour diverses expériences – l’histoire de 20 ans de Riz Doré est celle d’un désespoir continu.
Néanmoins, le projet Riz Doré (et ses succès plus récents) a inspiré plusieurs autres scientifiques européens et les a incités à initier des recherches financées publiquement sur les OGM pour un objectif non commercial. Parmi eux figurent mes superviseurs de doctorat, qui ont jalonné une grande partie de leur carrière avec la recherche sur les OGM.
Cependant, pour moi, l’autobiographie de Potrykus se lit comme un récit édifiant pour un jeune scientifique. Je ne trouve tout simplement pas le genre d’optimisme déraisonnable – que l’on épice avec une cuillerée de fatalisme – que réclame la recherche sur les OGM dans le climat actuel de l’opinion publique. Potrykus lui-même le dit le mieux en réfléchissant à l’histoire du Riz doré : « Bien que des progrès soient faits lentement, si j’avais su ce que cette poursuite impliquerait, peut-être que je n’aurais pas commencé. J’espère que le Riz Doré atteindra les nécessiteux de mon vivant. »
J’ai passé quatre années et demie très enrichissantes dans le domaine de la recherche sur les OGM. Ma recherche m’a donné l’occasion de visiter des petites fermes dans deux pays africains, d’enseigner à une étudiante du Sud le genre de techniques biologiques modernes qui restent un rêve pour beaucoup dans son pays, et de faire des découvertes qui pourraient apporter une réponse à un important problème de sécurité alimentaire dans les tropiques. En conséquence, oui, je ressens une certaine culpabilité à l’idée de quitter ce domaine de recherche, et de quitter la quête de mon laboratoire pour concevoir de meilleures variétés de manioc pour les agriculteurs de l’Afrique et de l’Asie du Sud à mi-parcours du projet.
Dans l’ensemble, cependant, je suis un peu égoïste, heureux de passer à un domaine de recherche qui n’entraîne pas les mêmes défis de relations publiques et le même degré de suspicion implacable. Mais vous ne savez jamais – peut-être que le monde développé peut encore donner à la technologie OGM développée sur fonds publics la chance qu’elle mérite d’avoir pour nourrir nos semblables, et je peux encore revenir au bercail. _______________
* Devang Mehta est un spécialiste de la biologie de synthèse et des plantes qui écrit. Cet article a été publié en premier lieu sur Massive Science Inc.
OGM, Gilles-Éric Séralini, trois études d'envergure et les médias : les « mute news »
12 Juillet 2018 par Seppi
Vous avez sans doute une zapette avec une touche « mute ». Les « mute news » sont celles qui ne parviennent pas au public…
La marmite aura mis du temps à bouillir, mais c'est finalement arrivé... pour se refroidir presque aussitôt.
Reprenons les prémisses en pas très bref... car c'est une longue histoire
Le 19 septembre 2012, l'Obs publie une série d'articles sur ce qui est devenu la fameuse et infâme expérience sur des rats de Gilles-Éric Séralini et al. En couverture, outrageusement putassière : « Oui, les OGM sont des poisons ». Et outrageusement insensée. Car, à supposer que l'équipe de M. Séralini ait mis un danger mortel en évidence, cela n'aurait valu que pour l'OGM étudié, le maïs NK603 tolérant le glyphosate.
L'article « scientifique » paru dans Food & Chemical Toxicology, « Long term toxicity of a Roundup herbicide and a Roundup-tolerant genetically modified maize » (toxicité à long terme d'un herbicide Roundup et d'un maïs génétiquement modifié tolérant le Roundup) est paru le même jour. C'est le coup d'envoi d'une formidable opération de communication et d'activisme.
Mais dès le lendemain, le Figaro rapportait dans « L'étude sur les OGM fortement contestée » un propos du toxicologue Gérard Pascal « Cela ne vaut pas un clou ». Propos lapidaire qui résume bien une extraordinaire levée de boucliers dans la communauté scientifique (évidemment à l'exception notable des milieux de l'alterscience militante anti-OGM et anti-pesticides). Les milieux journalistiques ainsi que ceux de l'éthique de l'expérimentation animale se sont aussi insurgés, les uns à propos des conditions de l'embargo avant publication, et les autres des souffrances animales.
L'indigence de cette étude s'illustre aussi par le fait que les six académies scientifiques de France (d'Agriculture, de Médecine, de Pharmacie, des Sciences, des Technologies, et Vétérinaire) ont publié un avis commun – une première dans les annales – fort critique. Par exemple :
« L’orchestration de la notoriété d’un scientifique ou d’une équipe constitue une faute grave lorsqu’elle concourt à répandre auprès du grand public des peurs ne reposant sur aucune conclusion établie. Tout chercheur peut se considérer comme un lanceur d’alerte, encore fautil que les hypothèses formulées ne soient pas, en l’absence de résultats validés et confirmés, présentées ou perçues comme des commencements de preuve suffisants pour faire appel au principe de précaution. Il est donc essentiel que tout chercheur soit attentif aux conséquences potentiellement graves de propos excessifs. »
Conclusion de « OGM, vers une alerte mondiale ? », un « documentaire » diffusé par France 5 pour la première fois le mardi 16 octobre 2012. Lorsqu'une expérience, censée menée dans le plus grand secret, fait l'objet d'un suivi cinématographique, lequel – de l'expérience ou du « documentaire » – est le vrai support de l'autre ?
L'article fut finalement rétracté en novembre 2013 – l'altermonde affirme mordicus que ce fut un complot de Monsanto – et republié le 24 juin 2014 (après un autre curieux embargo) avec des modifications essentiellement cosmétiques, sans nouvel examen de fond par les pairs, dans une revue qui constitue un repaire pour l'alterscience « environnementaliste » et anti-OGM. Il eut un curieux article compagnon, « Conflicts of interests, confidentiality and censorship in health risk assessment: the example of an herbicide and a GMO » (conflits d'intérêts, confidentialité et censure dans l'évaluation sanitaire : l'exemple d'un herbicide et d'un OGM) – curieux car il n'a guère sa place dans une revue scientifique (mais tout fout le camp... même chez Nature).
Curieux aussi car, question conflits d'intérêts, l'équipe Séralini avait été largement financée par le biobusiness ainsi que Carrefour et Auchan dans le cadre d'un montage qui devait faire écran entre l'équipe et les bailleurs de fonds. M. Séralini s'en est du reste vanté dans l'Obs et dans son « Tous Cobayes ».
Un montage financier ad hoc
Nous avons cependant dû sortir de ce cadre pour organiser le montage financier nécessaire à l’expérience. Pour éviter tout rapprochement disqualifiant avec les méthodes des industriels, il fallait un cloisonnement net entre les scientifiques, qui menaient cette expérience dans le respect d’une éthique de l’indépendance et de l’objectivité, et les associations qui la subventionnaient.
L’association Fontaine, regroupement pour des formations de management, avait permis de recruter plusieurs dizaines de donateurs qui se sont eux-mêmes regroupés sous le nom de CERES (1). Cette autre association, créée par Jacques Dublancq sous l’impulsion de Gérard Mulliez, a débloqué une première somme d’environ 500.000 euros qui nous a permis de mettre en route les premières phases de l’expérience.
Il n’était toutefois pas concevable qu’elle soit le commanditaire direct de l’étude. Nous ne pouvions nous exposer à apparaître aux yeux de nos détracteurs comme des scientifiques financés directement par le lobby de la grande distribution – d’une façon symétrique aux experts influencés par celui de l’agro-alimentaire. Et cela même si de nombreux autres métiers étaient représentés dans le Céres.
Une instrumentalisation politique immédiate...
Il n'y a pas que la notoriété d'un scientifique qui fut orchestrée, mais aussi, sans doute, la réaction politique. Dans Slate, « Affaire Séralini: six ans après, l'heure des comptes » M. Jean-Yves Naud rappelle que la réaction du gouvernement français (M. Stéphane Le Foll, Mme Marisol Touraine et Mme Delphine Batho) – que nous qualifierons d'hystérique – est tombée dans l'heure suivant la sortie du Nouvel Observateur :
« Le gouvernement a pris connaissance des informations, rendues publiques aujourd'hui, sur l'étude menée par des chercheurs français, mettant en cause l'innocuité à long terme du maïs transgénique NK 603 sur les rats. Les conclusions de cette étude font l'objet d'une saisine immédiate de l'Agence nationale de sécurité sanitaire (ANSES). Elles feront également l’objet d’une analyse par le Haut conseil des biotechnologies. Elles seront également transmises en urgence à l'Autorité européenne de sécurité des aliments. [...] »
Tant le HCB que l'ANSES recommandèrent des actions pour avoir le cœur net – on pourra lire à cet égard, sur Slate, « OGM: l'expérience de Gilles-Eric Séralini est nulle mais pleine d’avenir ».
...débouchant sur trois études de grande envergure...
Cela déboucha sur l'organisation de trois études de grande envergure, GMO90+ en France et GRACE (GMO Risk Assessment and Communication of Evidence – évaluation des risques des OGM et communication des preuves) et G-TwYST (Genetically modified plants Two Year Safety Testing – examen de la sécurité des plantes génétiquement modifiées d'une durée de deux ans) au plan européen. Le coût cumulé a été estimé à quelque 15 millions d'euros.
...et un boycott
Le projet français incluait une instance de concertation... dont le CRIIGEN s'est retiré dès le départ pour des motifs – « OGM : Monsanto invité à s'auto-évaluer avec 3 millions d'argent public » – dont nous laisserons les lecteurs juges. Rappelons que ces gens ont constitué une cagnotte – en faisant appel au financement participatif (défiscalisé...) – pour défendre l'honneur scientifique – oups ! « une recherche indépendante de qualité » – au prétoire...
D'autres – Inf’OGM, Greenpeace et la Confédération Paysanne se sont également retirés. Déclaration commune de ces deux derniers (mais le même argument a été évoqué par Inf'OGM :
« Par ailleurs, le porte-parole français de la société Monsanto étant invité à participer à cette instance qui doit se prononcer sur son propre OGM, nous ne pouvons tolérer un conflit d’intérêts aussi direct. Enfin, nous déplorons le déséquilibre entre les différentes parties prenantes dans la constitution de cette instance : les autres parties prenantes économiques invitées sont toutes des sociétés semencières productrices d’OGM, et aucun représentant de la distribution n’est invité. Un tel déséquilibre dans le choix des participants interdit à l’avance tout travail serein. La Confédération paysanne et Greenpeace refusent donc de cautionner par leur présence ce qui semble être un simulacre de consultation de la société civile et attendent de l’Anses qu’elle revoie au plus vite les missions et la composition de cette instance. »
L'intolérance aux producteurs d'OGM tolérant le glyphosate (et d'autres « événements ») est décidément sans limite. Et il s'agissait sans nul doute aussi de se dissocier de travaux dont les résultats escomptés étaient prévisibles.
Des résultats prévisibles
Ces résultats sont tombés au printemps de cette année. En bref : RAS.
Faut-il rappeler que les OGM en question – tolérant le glyphosate ou comportant un gène Bt – sont maintenant cultivés depuis plus de 30 ans et qu'ils entrent dans l'alimentation du bétail – plus de 100 milliards de têtes depuis 1993 – sans qu'on ait remarqué d'effets négatifs. C'est aussi la conclusion, notamment, de la revue de la littérature scientifique sur les essais à long terme et multigénérationnels de Snell et al. (non, l'étude de Séralini et al. n'a pas été la première...
Et, comme nous l'avons vu plus haut, cette dernière étude ne valait pas un clou...
Les trois études produisirent donc des résultats qui, sans infirmer formellement les conclusions de l'étude Séralini, ne les corroborent pas.
Un silence médiatique quasi général
Ces résultats ont été accueillis par une indifférence médiatique générale. « Oui, les OGM sont des poisons » était une « information » en septembre 2012. « Non, les OGM ne sont pas des poisons » – ou un titre du même tonneau, mais épistémologiquement correcte –, ce n'est pas une information.
L'Association Française des Biotechnologies Végétales (AFBV) s'est employée sans réel succès à remuer le marigot médiatique. Il y eut un dossier de presse le 1er juin 2018. Cela a produit un article de la France Agricole, « L’étude de Séralini sur les maïs OGM invalidée », du 1er juin 2018, et de Contrepoints, « 3 expertises supplémentaires contredisent Séralini sur la nocivité des OGM », du 4 juin 2018. Rien du côté des médias généralistes... en particulier de ceux qui se sont précipités en septembre 2012.
L'AFBV publie le 11 juin 2018 un communiqué de presse, « Trois expertises française et européennes invalident les résultats et conclusions de l’étude de GE Séralini sur les maïs OGM » :
« 1- Les résultats de ces programmes de recherche confirment l’absence d’effets sur la santé des maïs porteurs de MON 810 et NK 603 dans les études à 90 jours. Cette absence d’effets avait déjà été observée dans les études antérieures et prises en compte dans les évaluations faites par l’EFSA.
2)- Les études à long terme (un an et deux ans), ne mettent en évidence aucun effet toxique des maïs analysés et n’apportent rien de plus que les études à 90 jours, comme l’avaient prévu les toxicologues.
Ainsi, l’AFBV constate que ces nouvelles études réfutent les principales conclusions tirées des études de GE Séralini sur la toxicité des maïs « OGM » analysés : aucun risque potentiel n’a été identifié. En outre, elles contredisent ses propositions sur la nécessité de réaliser les études long terme.
Pour l’AFBV, il est donc important que les consommateurs européens soient maintenant informés des résultats de ces études qui devraient les rassurer sur la qualité pour leur santé des plantes génétiquement modifiées autorisées à la commercialisation et sur la procédure d’évaluation européenne, déjà la plus rigoureuse du monde. »
Cent cinquante journalistes et 200 parlementaires contactés... aucune reprise !
Challenges titre le 14 juin 2018 : « Les défenseurs des OGM expérimentent les "mute news" »... « Même l'AFP n'a pas voulu passer une ligne », déplore M. Gil Kressman, porte-parole de l'AFBV. Il devait pourtant savoir : l'AFP est loin d'être une agence d'information sur les questions d'OGM et de pesticides.
Le CRIIGEN réplique
L'AFBV ? Vu le contentieux passé, le CRIIGEN ne pouvait que répliquer. C'est « Etude "Séralini 2012" : Comparer ce qui est comparable ! 4 juin 2018 ». Le ton est peu amène, la mise en cause des « lobbies » fuse et le tocsin est sonné en conclusion :
« Certains détracteurs de l’étude "Séralini 2012" continuent avec acharnement à discréditer cette étude. Ils oublient avec une mauvaise foi patente de : "Comparer ce qui est comparable" !
En effet, les résultats des études GRACE, G-TwYST et OGM90+ ne remettent pas en cause les résultats de l’étude "Séralini 2012" car les protocoles et les objectifs sont trop différents.
[…]
Une fois de plus les lobbys tentent de détourner le débat face aux risques graves sur la santé publique de produits qui contaminent régulièrement nos écosystèmes et notre alimentation et que l’on retrouve dans le sang et les urines de la population mondiale. »
Mais cela n'en touche pas une, ni ne remue l'autre.
Un coup de gueule de MM. Gérard Kafadaroff et Philippe Joudrier
Il y a deux titres – explicites – sur Atlantico : en gros caractères, « OGM poisons… ou sans impact pour la santé ? L’étrange silence médiatique réservé aux 3 contre-expertises réalisées sur les pauvres rats du Professeur Séralini » ; en plus petit (hélas), « Du tsunami médiatique en 2012 à l'omerta en 2018 ».
C'était pour le compte du Collectif Science-Technologies-Actions. Extrait :
« Les résultats viennent d’être publiés. Sans surprise ils réfutent les principales conclusions de l’étude Séralini : aucun effet toxique sur les rats de laboratoire nourris avec du maïs GM Mon 810 et NK 603 (traité ou pas avec du Roundup®, formulation glyphosate de Monsanto), que ce soit pendant 90 jours ou pendant un à deux ans.
Confirmant les avis des toxicologues, les études à long terme réclamées par les lobbies écologistes n’apportent aucun élément supplémentaire par rapport aux études classiques pendant 90 jours.
Etonnamment, cette information majeure et positive n’intéresse plus les médias, même ceux qui s’étaient déchaînés en 2012 contre le maïs génétiquement modifié et le glyphosate.
Tsunami médiatique en 2012, silence ou omerta en 2018 : un traitement de l’information inquiétant ! »
Enfin...
C'est finalement le Figaro qui relève le flambeau le 3 juillet 2018, avec trois articles :
« Lien entre OGM et cancer : l'étude était fausse », de Mme Cécile Thibert ; « OGM : une manipulation scientifico-médiatique soigneusement préparée », de M. Cyrille Vanlerberghe ; « OGM : "Les images ont eu plus d'impact que les résultats de l'expérience" »
Le lendemain, M. Patrick Cohen a interrogé le Prof. Bernard Salles, auteur principal d'OGM90, dans « OGM et tumeurs : "On ne peut pas dire que manger du maïs modifié provoque des cancers chez le rat" ». Des propos prudents, mais suffisants.
La réponse du CRIIGEN a été brève... et menaçante :
« Suite à l’article paru le 3 juillet sur le site du figaro.fr et intitulé "Lien entre OGM et cancer : l'étude était fausse", nous insistons sur le contenu du communiqué de presse du CRIIGEN du 04/06/2018, qui soulignait que les études GRACE, G-TwYST et OGM90+ ne sont pas de nature à infirmer et à confirmer les résultats de l'étude "Séralini" car les protocoles et les objectifs sont différents !
Il est également utile de préciser que l’étude du professeur G.E. Séralini et al ne visait en aucune manière à faire le lien entre OGM et cancer et que le titre de l’article de Cécile Thibert est fallacieux à cet égard.
Par ailleurs, les termes de l’article intitulé "OGM : une manipulation scientifico-médiatique soigneusement préparée" de Cyrille Vanlerberghe sont diffamatoires et inacceptables. Nous vous rappelons l’arrêt définitif de la Cour d’Appel de Paris du 06/11/2015 qui a condamné le journaliste Jean-Claude Jaillette et le journal Marianne pour des propos similaires à l’encontre du Pr. Séralini. »
Éolien offshore: les 15 milliards d’économie d’Emmanuel Macron sont du vent
L’annonce du Président Macron de 15 milliards d’euros d’économie sur les éoliennes en mer n’est qu’une supercherie supplémentaire de communication.
Par Jean-Louis Butré et Arnaud Casalis1. 11 JUILLET 2018
Le 20 juin 2018 le président Macron et le ministre Nicolas Hulot ont annoncé à grand renfort de médiatisation une économie de 15 Md€ sur le coût d’installation des éoliennes en mer. À un moment où le gouvernement proclame vouloir boucler son budget en réalisant d’importantes économies budgétaires de l’État, une telle annonce est évidemment flatteuse. Elle résiste toutefois difficilement à la réalité des faits.
De quoi parle-t-on réellement dans ces projets d’éoliennes en mer ? Un bref retour en arrière s’impose pour rappeler que les gouvernements précédents ont décidé de donner corps à la transition énergétique de façon idéologique, sans la moindre analyse du potentiel des ressources ni de leur faisabilité économique. Dans le plus grand désordre et en l’absence de réflexion sur ce que devrait être l’intérêt général, ils se sont lancés dans des politiques opportunistes sous la pression immédiate de groupes de pression alliant spéculateurs et prétendus écologistes.
POUR MASQUER LE FIASCO DE L’ÉOLIEN TERRESTRE LE GOUVERNEMENT LANCE L’ÉOLIEN OFFSHORE ENCORE PLUS COÛTEUX
Les subventions aux éoliennes terrestres assurant une rentabilité incomparable à tout autre investissement, aux frais du contribuable, il a fallu corriger une image promise à être désastreuse lorsqu’il a commencé à être public le fait que le secteur éolien ne créerait pas d’emploi en France (les machines sont toutes importées) et que cette énergie intermittente serait à l’origine d’un prochain triplement du prix de l’électricité pour le consommateur.
L’idée fut donc vite vendue, par quelques industriels, de créer une filière d’énergie éolienne dite « marine » (en réalité littorale) permettant de tenir un discours franco-français sur la création d’emplois compatible avec le discours politique ambiant. On sait quelle fut la suite, avec l’arrêt ou la cession des projets (Siemens, General Electric) dans des conditions de décisions encore mal élucidées.
ÉLECTRICITÉ OFFSHORE PLUS DE 7 FOIS LE PRIX NORMAL
C’est dans ces circonstances que furent hâtivement lancés des appels à projets d’éolien marin, sans étude préalable autre que celles des promoteurs les portant dans leurs cartons, assorties d’exigences de rémunération sans précédent.
Alors qu’EDF est tenu de vendre à ses concurrents 25% de sa production d’électricité à 49 € le MWh dans les conditions imposées par la loi Nome, et que les éoliennes terrestres lui vendaient déjà la leur au double de ce prix, le premier projet de Veulette proposait un prix d’achat imposé à EDF de 110 € le MWh.
Profitant d’une volonté politique défaillante et de la légèreté de Mme Ségolène Royal, les projets suivants ont ensuite vu leurs offres acceptées à des prix exorbitants atteignant jusqu’à 230 € le MWh. Il n’est pas non plus inutile de comparer ce prix à celui du marché spot de l’électricité qui oscille souvent aux alentours de 30 € le MWh et qui est même quelquefois négatif lorsqu’il faut délester le réseau allemand de la surproduction erratique de ses propres éoliennes.
Éolien offshore: les 15 milliards d’économie d’Emmanuel Macron sont du vent
L’annonce du Président Macron de 15 milliards d’euros d’économie sur les éoliennes en mer n’est qu’une supercherie supplémentaire de communication.
Par Jean-Louis Butré et Arnaud Casalis1. 11 JUILLET 2018
Le 20 juin 2018 le président Macron et le ministre Nicolas Hulot ont annoncé à grand renfort de médiatisation une économie de 15 Md€ sur le coût d’installation des éoliennes en mer. À un moment où le gouvernement proclame vouloir boucler son budget en réalisant d’importantes économies budgétaires de l’État, une telle annonce est évidemment flatteuse. Elle résiste toutefois difficilement à la réalité des faits.
De quoi parle-t-on réellement dans ces projets d’éoliennes en mer ? Un bref retour en arrière s’impose pour rappeler que les gouvernements précédents ont décidé de donner corps à la transition énergétique de façon idéologique, sans la moindre analyse du potentiel des ressources ni de leur faisabilité économique. Dans le plus grand désordre et en l’absence de réflexion sur ce que devrait être l’intérêt général, ils se sont lancés dans des politiques opportunistes sous la pression immédiate de groupes de pression alliant spéculateurs et prétendus écologistes.
POUR MASQUER LE FIASCO DE L’ÉOLIEN TERRESTRE LE GOUVERNEMENT LANCE L’ÉOLIEN OFFSHORE ENCORE PLUS COÛTEUX
Les subventions aux éoliennes terrestres assurant une rentabilité incomparable à tout autre investissement, aux frais du contribuable, il a fallu corriger une image promise à être désastreuse lorsqu’il a commencé à être public le fait que le secteur éolien ne créerait pas d’emploi en France (les machines sont toutes importées) et que cette énergie intermittente serait à l’origine d’un prochain triplement du prix de l’électricité pour le consommateur.
L’idée fut donc vite vendue, par quelques industriels, de créer une filière d’énergie éolienne dite « marine » (en réalité littorale) permettant de tenir un discours franco-français sur la création d’emplois compatible avec le discours politique ambiant. On sait quelle fut la suite, avec l’arrêt ou la cession des projets (Siemens, General Electric) dans des conditions de décisions encore mal élucidées.
ÉLECTRICITÉ OFFSHORE PLUS DE 7 FOIS LE PRIX NORMAL
C’est dans ces circonstances que furent hâtivement lancés des appels à projets d’éolien marin, sans étude préalable autre que celles des promoteurs les portant dans leurs cartons, assorties d’exigences de rémunération sans précédent.
Alors qu’EDF est tenu de vendre à ses concurrents 25% de sa production d’électricité à 49 € le MWh dans les conditions imposées par la loi Nome, et que les éoliennes terrestres lui vendaient déjà la leur au double de ce prix, le premier projet de Veulette proposait un prix d’achat imposé à EDF de 110 € le MWh.
Profitant d’une volonté politique défaillante et de la légèreté de Mme Ségolène Royal, les projets suivants ont ensuite vu leurs offres acceptées à des prix exorbitants atteignant jusqu’à 230 € le MWh. Il n’est pas non plus inutile de comparer ce prix à celui du marché spot de l’électricité qui oscille souvent aux alentours de 30 € le MWh et qui est même quelquefois négatif lorsqu’il faut délester le réseau allemand de la surproduction erratique de ses propres éoliennes.
De plus, les répercussions sur cette action risquent d’être plus lourdes encore. En effet, les bateaux de pêche les plus conséquents pourront se rendre sur d’autres secteurs, mais cela aurait pour conséquence de les dérouter vers d’autres ports pour décharger leur pêche et s’approvisionner. L’activité de la CAPA (Coopérative des Artisans Pêcheurs Associés) qui commercialise le carburant et la glace s’en trouverait impactée.
J’en appelle donc à vous, Monsieur le Préfet, pour mettre bon ordre dans cette situation et faire en sorte que les droits des professionnels de la mer ne soient plus bafoués.
Recevez, Monsieur le Préfet, l’expression de mes salutations distinguées.
Laurent JACQUES Maire du Tréport
Jean-Louis Bultré est l’auteur de Éolien, une catastrophe silencieuse, paru aux éditions de l’Artilleur en 2017.
Jean-Louis Bultré est président et Arnaud Casalis est administrateur de la Fédération Environnement Durable.
Après des milliards d'oiseaux et d'abeilles tué chaque jour sur terre, voici les 'éoliennes-en-mer' qui massacrent des milliards de mouettes, sternes, albatros, goélands et autres hirondelles de mer !!! pour le plaisir le la nazional socialiste !
Cameroun : crise alimentaire ou crise de gouvernance ?
Le problème de crise alimentaire dans le septentrion au Cameroun est moins le fait de la nature que la conséquence d’une gouvernance qui manque d’anticipation et qui n’investit pas dans l’innovation.
Par Louis-Marie Kakdeu. JUILLET 2018 Un article de Libre Afrique
Selon le Programme Alimentaire Mondial (PAM) dans son rapport de mai 2018, 36,7% de la population globale des régions septentrionales du Cameroun sont confrontés à l’insécurité alimentaire. La seule région de l’Extrême-Nord représente 75% des enfants en retard de croissance.
Selon le discours officiel, la région est frappée depuis 2014 par la crise terroriste de Boko Haram qui contraint les populations à abandonner les zones rurales où se font l’essentiel des cultures. Aussi, la même région n’aurait connu respectivement entre 2015 et 2017 que 43, 42 et 39 jours de pluie, exposant les cultures à la sécheresse et aux ravageurs. Une superficie totale de 9623 hectares aurait été infestée par les ravageurs en 2017. Les dirigeants peuvent-ils se cacher derrière ces «alibis» ?
LA RESPONSABILITÉ DU GOUVERNEMENT ENGAGÉE
Nul ne peut méconnaître l’impact de l’insécurité et de la météorologie sur la crise alimentaire dans le septentrion. Mais le gouvernement a sa part de responsabilité en matière de gouvernance. La région de l’Extrême-Nord qui était la plus peuplée du Cameroun (3,9 millions d’habitants en 2015) est encore la plus pauvre, la plus sous-scolarisée, la plus enclavée.
Par exemple, en 2017 on ne note que 3943 établissements scolaires et un ratio de 15 enseignants par établissement contre 9923 établissements et un ratio de 45 enseignants par établissement dans la région du Centre. C’est un problème de planification et de programmation des politiques publiques. Ce faisant, les gouvernements successifs ont fait de la région un terreau fertile pour le terrorisme et autre forme de vandalisme.
De plus, la progression de la sécheresse est aussi le fait de la corruption des agents des eaux et forêts et des détournements de deniers publics affectés à la région. Par exemple, ce sont des agents corrompus qui autorisent la déforestation des zones déjà désertiques par des spéculateurs qui plombent le marché du bois de chauffage dans la région. Un tel comportement des agents publics ne pouvait qu’affecter la sécurité alimentaire.
Par ailleurs, chaque année, le gouvernement camerounais se contente de réagir aux crises qui se pointent à l’horizon et d’espérer que la «nature sera clémente». Dans la politique budgétaire, la guerre contre Boko Haram est privilégiée au développement pourtant, le terrorisme se nourrit du mercenariat c’est-à-dire de la propension des jeunes oisifs à vendre des services violents au plus offrant pour survivre.
Par exemple, au titre du budget d’investissement public (BIP), l’État n’a consacré depuis 2016 que moins de 3% de son budget à l’Extrême-Nord, passant de 31 à 36 milliards en 2018 pourtant, c’est la région où le taux de pauvreté a le plus évolué dans le pays, passant de 56,3% en 2001 à 74,3% en 2014.
LA PASSIVITÉ DU GOUVERNEMENT : DES SOLUTIONS TECHNOLOGIQUES NON EXPLORÉES
Un manque d’investissement dans l’innovation conduit à l’accentuation de la crise. Les problèmes auraient pu être transformés en opportunités avec un peu plus de créativité. On ne peut pas privilégier le chauffage au bois dans une région où il fait très souvent entre 35 et 45°C.
Paradoxalement, le chauffage solaire qui est l’un des plus vieux modes de chauffage au monde reste méconnu dans cette région. Pourtant, cela résoudrait les problèmes de cuisson, de séchage, d’électricité, etc. Aussi, l’investissement dans la rétention et le drainage de l’eau dans les bassins de production est une solution incontournable pour pallier durablement le problème de manque d’eau.
Il s’agirait simplement d’un barrage accompagné des canaux primaires. Et ce ne sont pas des exemples qui manquent ! En 1978, le barrage du lac de Maga (25 km de long) et la digue de Logone avaient été construits avec succès en vue d’irriguer un bassin de production de riz. Depuis, aucun autre investissement identique n’a été consenti à la région. Par ailleurs, il est incompréhensible de comprendre pourquoi le pays est surpris par la météo dans un contexte où des solutions technologiques existent pour avoir des prévisions plus précises.
Par exemple, le dispositif CATCOS (Capacity Building and Twinning for Climate Observing Systems) a permis entre 2011 et 2016 de donner les moyens à dix pays d’Afrique, d’Amérique du Sud, d’Asie centrale et d’Asie du Sud-Est de prendre des mesures adéquates suite à la surveillance de CO2 et d’aérosols. Aussi, l’Israël, un pays désertique qui développe l’une des agricultures les plus innovantes du monde assure la maîtrise des pics de chaleur, de la salinité et du manque d’eau grâce à l’imagerie satellitaire.
La même technologie permet aujourd’hui de proposer de meilleures solutions d’assurances-récolte comme en Inde où en juillet 2017, après une sécheresse, 203 000 petits riziculteurs-trices de l’État du Tamil Nadu, avaient perçu des indemnités allouées dans le cadre du programme national d’assurance-récolte.
UN MANQUE DE VOLONTÉ POLITIQUE
En 2018, il n’existe aucun obstacle juridique et économique à l’investissement dans le septentrion au regard des possibilités contenues dans le nouveau code des investissements de 2013. Le problème se situe au niveau politique. Le partenariat public-privé reste une piste intéressante. Cela commencerait par l’externalisation de la production des semences améliorées.
Par exemple en 2017, les semences ont été distribuées dans l’Extrême-Nord par le MINADER, la FAO et quelques ONGs agissant sur le terrain. Selon le rapport 2017 du MINADER, le bilan de la distribution céréalière était de 4031 tonnes pour un besoin évalué à 911059 tonnes, ce qui est insolite.
L’État ne peut plus être l’investisseur principal. Il faudrait veiller à la liberté économique dans la région. En l’état, un groupe de commerçants et barons politiques se manifeste par des comportements de dumping et cartelisme. En période de récolte, ils créent des pénuries artificielles afin de revendre plus cher. Un tel comportement est anticoncurrentiel et contraire aux règles du marché.
En somme, le problème de crise alimentaire dans le septentrion au Cameroun est moins le fait de la nature que la conséquence d’une gouvernance qui manque d’anticipation et de planification et qui n’investit pas dans l’innovation.
Depuis la disparition tragique du chef Kadhafi, l'Afrique se meurt, s'abandonne à ses singeries et fait régner la dictature pour faire vivre une poignée de dictateurs.
Star du poker, avocat ou consultant : comment les députés européens arrondissent leurs fins de mois
11 JUILLET 2018 Audrey Duperron
31% des 751 eurodéputés élus en 2014 qui ont eu des activités rémunérées en dehors de leur mandat ont gagné 41 millions d'euros, montre une étude de Transparency International.
L’ONG, qui se surnomme elle-même la “coalition anti-corruption”, a épluché près de 2000 “déclarations d’intérêt”, et publié une liste de 1 366 activités secondaires déclarées par les députés depuis leur prise de fonction en 2014.
Star de poker, avocat, ou administrateur
Son analyse révèle que le champion des revenus annexes est l’Italien Renato Soru, qui a perçu plus de 1,5 million d’euros au titre de son poste de directeur de Tiscali, un fournisseur d’accès à Internet. Il est suivi de l'eurodéputé lituanien Antanas Guoga, qui est aussi une star du poker mondial. Il a ratissé au moins 1,35 M € provenant de ses gains aux tables de jeu et de ses activités d’entrepreneur. Il est notamment membre du conseil d’administration et conseiller d’une société nommée Grand Cannabis International, mais aussi de sites de jeux, de poker, et d’une société de vêtements de sports. Il a également perçu 200 000 euros mensuels “mystérieusement extraits de son activité de banque de cryptomonnaie utilisant la technologie blockchain”, écrit Euractiv.
Notre ex-Premier ministre, Guy Verhofstadt, 65 ans, négociateur du Brexit au Parlement européen, figure en troisième position de ce palmarès. Amateur de voitures de course britanniques, Verhofstadt, qui possède un vignoble toscan, a gagné entre 920 000 et 1,45 million d'euros, principalement en tant que membre du conseil d'administration de Sofina, une société d'investissement belge, mais aussi de ses prises de parole.
Le Français Renaud Muselier, actif dans le milieu médical, et sa compatriote Rachida Dati, qui est avocate, complètent le top 5, avec des revenus annexes minimum respectifs de 800 000 euros et 768 000 euros.
Parmi les députés belges, la proportion de ceux qui arrondissent leurs fins de mois avec ces activités annexes atteint 62 %, ce qui les classe 3èmes, derrière les Autrichiens (56 %) et les Danois (54 %), et avant les Français (51 %).
Des salaires pourtant confortables... assortis d'enveloppes qui ne nécessitent pas de notes de frais
Les députés gagnent déjà 101 808 € par an en moyenne, avant un taux d'imposition réduit de 22 % pour les fonctionnaires de l'UE. Outre leurs indemnités pour couvrir leurs frais de personnel, ils bénéficient mensuellement d’une enveloppe de 4400 euros qui leur est allouée pour les aider à couvrir leurs dépenses de frais généraux, et pour laquelle ils n’ont pas à fournir de justificatifs de dépenses.
Mais certains parviennent à doubler, voire à tripler ces gains, et entre 2014 et 2018, sur les 714 d’entre eux qui ont déclaré avoir des activités annexes, 104 ont déclaré avoir perçu plus de 100 000 euros cumulés au titre de ces activités, en plus de leur salaire de parlementaire.
Des risques bien réels de conflits d'intérêts
Transparency International met également en garde contre le manque de garde-fous pour encadrer de ces activités annexes rémunérées, qui posent pourtant parfois un risque bien réel de conflits d'intérêts.
Les principaux intéressés invoquent la nécessité de conserver un lien avec leur métier d’origine, qui leur permettra, le moment venu, de reprendre celui-ci à la fin de leur mandat. D’autres évoquent le besoin de garder le contact avec leur électorat.
La création d’un code de conduite en 2011, à la suite d’un scandale de corruption, aura finalement eu peu d’effets sur les habitudes des eurodéputés. Même si le comité d’éthique a été saisi à 24 reprises sur les 5 dernières années, aucune sanction n’a été prononcée à l’égard des contrevenants.
Transparency International souligne également que certaines déclarations d’activités assez vagues, telles que “consultant, avocat ou freelance” devraient susciter l’inquiétude, quand elles sont assorties de revenus élevés. “Trois eurodéputés exercent actuellement une activité rémunérée pour des organisations inscrites dans le registre européen des lobbies”, précise l’Organisation, qui précise qu’il s'agit de la Luxembourgeoise Viviane Reding “membre du conseil d'administration de la Fondation Bertelsmann, l'une des plus grandes entreprises de médias au monde” et qui a des intérêts dans les médias luxembourgeois, d’Agnes Jongerius, “eurodéputée néerlandaise qui figure au conseil de surveillance de PostNL, la poste des Pays-Bas” et de Paul Rübig, qui “travaille pour la chambre du commerce autrichienne”.
L’étude critique le système de surveillance “particulièrement faible” de l'UE, en comparaison de ce qui existe au Canada, aux Etats-Unis ou même en France. Par exemple, il est interdit pour les membres du Congrès américain d’exercer des activités rémunérées dans des domaines présentant des risques de conflits d’intérêts.
Dix ans plus tard, l'ACCC affirme que les transactions solaires sur les toits doivent cesser
July 12th, 2018
L'ACCC est un organisme puissant créé pour protéger les consommateurs en Australie. Maintenant, après dix ans de pauvres qui sont obligés de payer pour des panneaux solaires de classe moyenne et supérieure dans une sorte de subvention semi-secrète, MAINTENANT, il est peut-être temps d'arrêter ?
Allez ACCC.
Les appels à la concurrence lancés en faveur des subventions solaires doivent être éliminés Ben Packham, Sam Buckingham-Jones, L'Australien
Le rapport sur l'accessibilité à l'électricité de la Commission australienne de la concurrence et des consommateurs révèle le coût énorme des systèmes environnementaux sur le marché national de l'énergie, notamment l'objectif d'énergie renouvelable à grande échelle, le projet d'énergie renouvelable à petite échelle.
Les régimes ajoutent un montant combiné de 170 $ aux factures d'énergie des ménages en Australie-Méridionale, 155 $ en Tasmanie, 109 $ en Nouvelle-Galles du Sud, 93 $ à Victoria et 76 $ au Queensland.
L'ACCC regrette certaines raisons:
L'ACCC a déclaré que les coûts associés à la LRET devraient baisser de manière significative après 2020, et n'a recommandé aucune action pour liquider le système avant sa date de fin 2030. Mais il a déclaré que le SRES, qui a coûté 130 millions de dollars en 2016-2017, devrait être aboli et aboli d'ici 2021, presque une décennie plus tôt que prévu, afin de réduire les coûts pour les consommateurs.
Quand l'ACCC a-t-elle demandé quelle valeur les clients non-solaires recevaient de cette transaction ?
Les installateurs solaires doivent commencer à paniquer ...
Le propriétaire de Western Sydney Solar, Rod Grono, a déclaré qu'il craignait que l'abolition de la subvention solaire sur les toits ne conduise à une chute des installations solaires.
Et la vérité sur le retour sur investissement devient plus claire:
"La confiance va tomber. Pour un travail de 10 000 dollars, 5,2 kW (certificats de technologie à petite échelle) sont d'environ 3300 $. Cela signifie qu'une période de récupération de quatre ans devient une période de récupération de sept ou huit ans. Cela pourrait faire basculer les gens ", a déclaré M. Grono.
Solar est compétitif si vous lui donnez un tiers d'avance:
La modélisation a suggéré que le SRES financerait environ 32 % du coût d'un système de 5 kW
J'aurai beaucoup plus à dire à ce sujet. Malheureusement, je suis un escroc. Merci à TDeF, Robber, ROM pour l'aide. Surveillez cet endroit….
* Pourquoi le fardeau sur les maisons non solaires? Parce que certains avec des panneaux solaires ont été payés au-dessus des taux du marché pour les électrons verts, et d'autres maisons solaires ont eu l'utilisation d'équipements subventionnés afin qu'ils n'aient pas à acheter autant d'électricité.
Une échappatoire au Code fiscal pourrait permettre un taux d'imposition de 21 % pour les pays les plus riches
par Tyler Durden Jeu, 07/12/2018 - 14:49
Le code des impôts est si compliqué, alambiqué et difficile à suivre que l'administration Trump a peut-être par inadvertance offert à ceux qui stockent des liquidités et des investissements une autre réduction d'impôt importante - leur permettant d'exploiter le taux des entreprises de 21% - sans même le savoir.
Tout comme le travail de patchwork que la Réserve fédérale a effectué sur l'économie, le code des impôts a été constamment révisé et réécrit pendant des années, mais personne n'a eu le courage de se rendre compte que peut-être en retirer une bonne partie nous beaucoup plus de mal que de bien. Avec ce type de pensée rétrograde vient des erreurs ridicules, comme celui mis au jour récemment. Les plus riches de la nation peuvent maintenant potentiellement exploiter le taux d'imposition des sociétés de 21% pour les gains personnels à l'étranger.
Pendant des années, le code des impôts a été raillé en raison de sa nature compliquée et de son contenu volumineux. Année après année, élection après élection, les politiciens promettent d'essayer de nettoyer le code des impôts, ce qui facilite la compréhension de «nous tous». Cela n'arrive jamais.
L'administration Trump a essayé de simplifier les choses, en publiant récemment une version format carte postale du formulaire 1040 pour la plupart des gens qui n'ont pas de retour compliqué.
Mais seulement maintenant - mois après que Trump a signé ses réductions d'impôts - les comptables commencent à se rendre compte que la réduction du taux d'imposition des sociétés a pu créer une échappatoire fiscale qui pourrait permettre à certaines des personnes les plus riches du pays aux comptables et experts fiscaux coûteux de toute façon - d'être imposé au taux d'entreprise. Bloomberg a rapporté sur l'histoire:
Une disposition fiscale obscure des années 1960 qui n'a pas été touchée par la réforme du président Donald Trump pourrait permettre aux investisseurs individuels fortunés de se saisir eux-mêmes de la plus grande réduction d'impôt sur les sociétés de l'histoire des États-Unis.
La mesure - promulguée par le président John F. Kennedy - visait à empêcher les Américains de se protéger indéfiniment des impôts en maintenant leurs investissements à l'étranger. Cela les a forcés à payer des impôts chaque année sur ces investissements, mais leur a donné l'option de faire taxer ce revenu au taux de l'entreprise plutôt qu'à des taux individuels.
Bloomberg a fait remarquer que la provision n'était pratiquement jamais utilisée, car le taux d'imposition des sociétés le plus élevé avait traditionnellement été le même ou plus élevé que le taux individuel le plus élevé, mais cela a maintenant changé.
Au cours des dernières décennies, les investisseurs ont eu peu de raisons de choisir le taux d'imposition des sociétés, puisqu'il était presque le même que le taux personnel le plus élevé. Mais tout a changé en décembre, lorsque la loi fiscale de Trump a réduit le taux d'imposition des sociétés à 21%, soit 16 points de pourcentage de moins que le taux d'imposition fédéral le plus élevé des particuliers.
Un expert dans l'article est cité comme disant "... nous avons juste oublié à ce sujet."
Quant à savoir comment cela fonctionnera spécifiquement: Les investisseurs doivent créer des sociétés offshore où ils peuvent stocker leurs investissements passifs générateurs de revenus. À partir de là, ils peuvent choisir de payer le taux d'imposition des sociétés, plutôt que leur taux d'imposition normal, sur ce qu'ils gagnent. L'argent est imposé une deuxième fois s'il est retourné aux États-Unis, mais pour les investisseurs ayant un horizon à plus long terme, cette échappatoire pourrait encore créer un allégement fiscal important.
L'encaissement potentiel du taux des entreprises découle d'une partie compliquée et controversée du code fiscal connu sous le nom de sous-partie F. Le Congrès a adopté la section en 1962 afin d'empêcher les sociétés de reporter les impôts dans les filiales étrangères. Malgré la dissuasion, les chercheurs ont estimé que les entreprises américaines stockaient plus de 3 billions de dollars de leurs revenus à l'étranger. La récente loi fiscale crée une taxe obligatoire - à un taux unique - qui s'applique à ces revenus extraterritoriaux.
La sous-partie F comprend également une section, 962, qui permet aux contribuables individuels d'agir comme si une société nationale «fantôme» se dressait entre eux et leur société étrangère. Le Congrès a créé cette section comme un moyen de mettre les individus sur un pied d'égalité avec ceux qui détenaient des sociétés nationales réelles qui possédaient une filiale étrangère.
Cela dit, ceux qui envisagent de profiter de cette échappatoire devraient probablement le faire avec une certaine facilité, car il semblerait douteux que cela va durer, surtout quand il y a une réaction publique à ce dernier cadeau aux riches.
En général, cette échappatoire ne peut être décrite que comme un autre élément d'inefficacité typique des innombrables bureaucrates du gouvernement qui continuent de croire qu'une réglementation excessive et la mise en place de pansements sont une solution favorable au lieu de simplement réduire le gouvernement dans nos vies. . Le travail de patchwork constant que le gouvernement et l'IRS font sur le code des impôts est maintenant - plus que jamais clairement - contre-intuitif. Après une erreur embarrassante comme celle-ci, le gouvernement commencera-t-il à comprendre ? Probablement pas
FOOTBALL - LES GROS PLANS SUR LES FEMMES BIENTÔT INTERDITS !!
Afin de lutter contre le sexisme, la FIFA a demandé aux diffuseurs TV de la Coupe du monde de stopper les gros plans sur les supportrices. La FIFA enquête également sur le comportement des hommes vis-à-vis des femmes aux abords des stades.
12.07.2018
C'est devenu un rituel: pendant les matches de Coupe du monde, les téléspectateurs ont droit à de nombreux plans isolés sur certaines supportrices sexy, quitte à ce que ces dernières apparaissent comme de vulgaires objets de foire.
La FIFA a fait de la lutte contre le sexisme l'un de ses chevaux de bataille. C'est pour cela qu'elle a demandé aux diffuseurs de la compétition de stopper les gros plans sur les femmes en petite tenue. Federico Addiechi, le responsable diversité de l'instance, l'a expliqué mercredi lors d'une conférence de presse: «Ce sera l'un de nos axes de développement, c'est normal. Nous avons étudié les images et ce sexisme était assez flagrant.» La télévision russe, notamment, est particulièrement visée Outre cette mesure, la FIFA déplore le nombre de femmes, «essentiellement russes», abordées à proximité des stades ainsi que les journalistes agressées pendant leur duplex. Federico Addiechi a déclaré collaborer avec la police et les organisateurs locaux afin d'identifier ces personnes et, éventuellement, de les interdire de stade. (nxp)
Arjen Luijendijk, Gerben Hagenaars, Roshanka Ranasinghe, Fedor Baart, Gennadii Donchyts et Stefan Aarninkhof 27 avril 2018
Abstrait
Les zones côtières constituent l'une des zones terrestres les plus densément peuplées et développées du monde. Malgré l'utilité et les avantages économiques que procurent les côtes, il n'y a pas d'évaluation fiable à l'échelle mondiale des tendances historiques du changement des rives. Ici, grâce à l'utilisation d'images satellitaires optiques disponibles depuis 1984, en conjonction avec des méthodes sophistiquées d'interrogation et d'analyse d'images, nous présentons une évaluation globale de l'occurrence des plages sablonneuses et des taux de changement du littoral. En appliquant la classification supervisée à base de pixels, nous avons constaté que 31 % du littoral sans glace du monde sont sablonneux. L'application d'une méthode automatisée de détection des rives aux rivages sablonneux ainsi identifiés a donné lieu à un ensemble de données mondiales sur les taux de modification des rives pour la période de 33 ans allant de 1984 à 2016. L'analyse des données du littoral dérivé du satellite indique que 24 % des plages sableuses du monde s'érodent à des taux dépassant 0,5 m / an, tandis que 28% s'accroissent et 48% sont stables. La majorité des rivages sablonneux des aires marines protégées s'érodent, ce qui suscite de graves préoccupations.
introduction
Les zones côtières ont historiquement attiré les humains et les activités humaines en raison de l'abondance des aménités, de la valeur esthétique et des divers services écosystémiques qu'elles fournissent. En conséquence, la zone côtière du monde entier est devenue très peuplée et développée1,2,3, 15 des 20 mégapoles (plus de 10 millions d'habitants) du monde étant situées dans la zone côtière. Le littoral global est spatialement très variable et comprend plusieurs types différents de reliefs côtiers, par exemple des îles-barrières, des falaises marines, des battures et des deltas fluviaux. Parmi ces différents types de littoral, nous nous concentrons ici sur les côtes sablonneuses, qui sont très dynamiques dans le temps et l'espace, et constituent une partie substantielle du littoral mondial4. Comme les côtes sableuses sont très développées et densément peuplées en raison de l'aménité et de l'esthétique qu'elles offrent, l'érosion de ces côtes au cours des dernières décennies entraîne déjà des pressions côtières5. Inévitablement, les impacts du changement climatique sur les côtes sableuses ne feront qu'exacerber cette situation6,7. Ainsi, des évaluations fiables de l'occurrence des côtes sablonneuses et de leurs taux de changement sont essentielles pour une planification spatiale efficace, un développement côtier durable, des projets d'ingénierie côtière et l'atténuation des impacts du changement climatique le long des côtes du monde entier.
Malgré l'utilité, les avantages économiques et la nature dynamique des côtes sablonneuses, il n'y a pas d'évaluation fiable à l'échelle mondiale de leur occurrence ou des taux de changement du littoral (c'est-à-dire les taux d'érosion / d'accrétion). Les estimations à l'échelle mondiale actuellement disponibles de ces phénomènes varient considérablement, et la façon dont la plupart de ces estimations ont été dérivées n'est pas claire au mieux. Par exemple, le pourcentage d'occurrence des littoraux sablonneux à l'échelle mondiale rapporté dans la littérature varie d'un facteur 7 allant de 10 % 8 à 75 % 9. En ce qui concerne les taux de changement dans les rivages sablonneux, plusieurs estimations récentes fiables à l'échelle régionale existent pour l'Europe (27 % d'érosion10 et les plages barrières de la côte Est des États-Unis (86 % d'érosion11). Cependant, comme l'étude de Bird, à l'époque révolutionnaire, reposait principalement sur une enquête auprès de 200 participants de 127 pays, cette estimation est plutôt qualitative.
Une estimation robuste des taux de changement des rives nécessite nécessairement des informations continues et à long terme sur la position du littoral. Historiquement, l'acquisition d'ensembles de données sur les rivages a été une tâche laborieuse et coûteuse, car elle impliquait des relevés terrestres traditionnels ou l'analyse de données temporellement rares recueillies à partir de plateformes aériennes (photographies ou lidar). L'augmentation de la disponibilité, de la résolution et de la couverture spatiale de l'imagerie satellitaire au cours des dernières années constitue maintenant une puissante alternative pour obtenir des données fiables et à l'échelle mondiale sur les rives, comme nous le montrons dans cet article.
La méthode couramment utilisée pour extraire les rivages des images satellites dans le passé impliquait une analyse image par image minutieuse de séries d'images qui se chevauchent. Le lancement récent de la plate-forme Google Earth Engine (GEE), qui contient des archives d'images satellitaires mondiales mises à jour en permanence, permet désormais une détection efficace des rives à l'échelle mondiale. La combinaison d'une collection d'images satellite Petabyte et de calcul parallèle sur le côté serveur de la plate-forme réduit le temps de traitement de l'image à seulement quelques minutes par image13 et permet une validation efficace des rives détectées automatiquement sur plusieurs sites où des données de terrain sont disponibles.
Pour permettre la cartographie globale des littoraux sablonneux, il est d'abord nécessaire d'identifier les plages sablonneuses, puis de déterminer les positions du littoral dans chaque image de la plate-forme GEE. Les échelles spatio-temporelles associées à cette étude (échelle globale, analyse à 33 ans) et la grande quantité d'images satellitaires devant être analysées nécessitent l'utilisation de techniques robustes d'analyse automatisée des images. Les techniques d'apprentissage automatique14 et de traitement d'image15 qui se prêtent à de telles analyses automatisées sont facilement disponibles. Cependant, pour pouvoir utiliser les positions des rivages dérivées par satellite pour des applications réelles telles que l'estimation fiable des tendances et des dommages structurels à l'infrastructure, une résolution horizontale d'au moins 10-20 µm est requise. Par exemple, les taux de changement de rivage au-dessus de 0,5 m / an sur une longue période sont généralement utilisés pour signaler qu'une zone côtière subit une érosion ou une accrétion chronique (= à long terme, c'est-à-dire des décennies à des siècles).
Sur une période de 30 ans, cela signifierait un déplacement total de seulement 15 mètres. Des études antérieures ont évalué la précision de position des rivages dérivés de satellite (SDS) basée sur des images uniques15,16,17,18,19 pour se situer entre 1,6 et 10 µm. Il convient de noter que ces études ont souffert de limitations telles que le nombre d'images utilisées, la qualité des données in situ utilisées pour la validation ou l'ampleur des changements dans la position du littoral observée. Récemment, Hagenaars et al.20 ont présenté une analyse d'image satellite à long terme, mais à échelle locale, sur les tendances du rivage, qui permet de surmonter toutes les limitations mentionnées ci-dessus. Ils ont trouvé que la précision du SDS dérivé d'images composites moyennes mobiles était d'une précision de sous-pixels (taille d'environ un demi-pixel, à savoir 15 um pour Landsat et 5 um pour Sentinel-2). La précision de <15 µm, rapportée par Hagenaars et al.20 pour les images Landsat composites, correspond au déplacement requis de 15 µm pour des classifications de changement de rivage fiables au cours des 30 dernières années. Pour cette raison, nous adoptons la même approche dans cette étude, mais à l'échelle mondiale.
Nous présentons ici une évaluation à jour de la dynamique des rivages sableux à l'échelle mondiale à l'aide d'une analyse entièrement automatisée de 33 ans (1984-2016) d'images satellitaires. Tout d'abord, nous détectons les plages de sable dans le monde entier en appliquant une classification supervisée basée sur des pixels à une image composite globale haute résolution sans nuage pour 2016. Un jeu de données d'entraînement numérique est fourni au logiciel de classification et validé pour 50 sites dans le monde incluant et les plages non sablonneuses. Ensuite, nous appliquons un algorithme de détection du littoral pour filtrer les images composites annuelles globales libres en utilisant plus de 1,9 million d'images Landsat historiques. Après une validation quantitative réussie de cette technique sur plusieurs sites situés dans divers environnements géographiques et conditions environnementales, nous obtenons des taux de changement de rivage en m / an sur des transects avec un espacement long-shore de 500 µm le long de la côte du monde. Les méthodes mentionnées ci-dessus sont élaborées dans la section Méthodes ci-dessous tandis que la validation complète est présentée Matériel supplémentaire (S2).
Les principaux résultats de notre analyse comprennent: (a) la présence mondiale de plages sableuses, (b) le taux d'érosion / accrétion sur toutes les plages de sable du monde, (c) les impacts naturels et anthropiques observés sur l'érosion côtière / l'accrétion et (d) l'identification des points chauds mondiaux de l'érosion / accrétion côtière.
Résultats
Occurrence mondiale des rivages sablonneux
Les classifications côtières ont été largement utilisées dans le domaine de la géomorphologie pour caractériser la diversité des reliefs côtiers et les contextes dans lesquels ils émergent, mais jusqu'à présent, aucun système de classification n'a été exhaustif ou étendu21,22. Les critères de ces classifications comprennent généralement les témoins tectoniques23 et hydrodynamiques, ainsi que la réponse sédimentologique. Les contrôles hydrodynamiques considérés comprennent les classifications des paramètres de la vague24, l'amplitude des marées24, 25 et une combinaison des deux26. Une classification ternaire présentée par Boyd et coll.27, qui considère l'importance relative des apports fluviaux, de l'énergie des vagues et du forçage des marées, fournit une analyse utile des côtes sédimentaires siliciclastiques. La combinaison des contrôles tectoniques et hydrodynamiques a conduit à la proposition de classifications morphogénétiques côtières28, qui sont probablement les schémas de classification les plus largement utilisés.
La texture et la composition des sédiments29 sont également utiles pour classifier et décrire les environnements sédimentaires côtiers. Cependant, les valeurs de la présence mondiale de littoraux sablonneux varient entre 10% et 75% (voir le tableau 1). Les méthodes utilisées pour arriver à ces valeurs restent, dans la plupart des cas, peu claires ou qualitatives (comme également indiqué dans le tableau 1).
- voir sur site -
Tableau 1 Valeurs déclarées des occurrences mondiales et régionales des littoraux sableux et des pourcentages d'érosion et d'accrétion chroniques.
Table pleine grandeur
Dans notre analyse, nous avons appliqué une classification supervisée (guidée par l'homme) à des images satellitaires globales sans nuage (voir la section 3.2) pour identifier les littoraux sablonneux. L'une des principales raisons pour lesquelles nous nous concentrons ici sur les plages sablonneuses est que la détection de la dynamique des rives pour les rivages non sablonneux comme les côtes boueuses peut être complexe. Les pentes douces de l'estran, entraînant de grandes marées horizontales, et une teneur élevée en eau entravent la détection correcte des rives. Dans le cas des mangroves, les cycles de croissance saisonniers peuvent entraver la détection correcte du littoral. En outre, comme les signatures de réflectance des plages de sable et de gravier ne peuvent pas être différenciées dans l'imagerie satellitaire, les deux matériaux proviennent des mêmes composites granulaires de roche finement divisée.
Notre analyse a montré que 31 % du littoral mondial libre de glace est sablonneux. Le continent ayant la plus forte présence de plages sableuses est l'Afrique (66 %), alors qu'en Europe, seulement 22 % du littoral est sablonneux (voir le tableau inséré à la figure 1). Le pourcentage de littoraux sablonneux obtenus à partir de cette analyse pour les États-Unis et l'Australie se compare bien avec les valeurs d'échelle régionales rapportées plus récemment (voir le tableau 1). L'écart le plus important constaté en pourcentage pour l'Europe est influencé de manière significative par la plus petite longueur totale du littoral utilisée dans la base de données Eurosion10. Il convient de noter que la classification des plages de sable comprend également les plages de gravier dans le monde. Les signatures de réflectance des plages de sable et de gravier ne peuvent pas être différenciées dans l'imagerie satellitaire car les deux matériaux proviennent des mêmes composites granulaires que les roches finement divisées.
- voir sur site - Figure 1
Répartition mondiale des littoraux sableux; les points colorés le long du rivage du monde représentent le pourcentage local de littoraux sableux (le jaune est du sable, le brun foncé est non-sable). La sous-placette à droite présente l'occurrence relative des rivages sablonneux par degré de latitude, où la ligne pointillée montre la distribution latitudinale des rivages sablonneux signalés par Hayes31. La sous-placette inférieure présente l'occurrence relative des rivages sableux par degré de longitude. Les lignes grises et pointillées en gris de l'intrigue principale représentent les limites des rives libres de glace considérées dans notre analyse. Les pourcentages soulignés indiquent les pourcentages de littoraux sableux moyennés par continent. La carte est créée avec Python 2.7.12 (https://www.python.org) en utilisant Cartopy (v0.15.1, Met Office UK, https://pypi.python.org/pypi/Cartopy/0.15.1) et Matplotlib58 .
La distribution latitudinale globale des littoraux sableux montre une relation distincte avec la latitude et donc avec le climat; aucune relation n'est trouvée avec la longitude. La présence relative de rivages sableux augmente dans les régions subtropicales et les latitudes moyennes inférieures (20 ° -40 °) avec des maxima autour des latitudes des chevaux (près de 30 ° S et 25 ° N, voir la figure 1). En revanche, ils sont relativement moins fréquents (<20%) dans les régions tropicales humides où la boue et les mangroves30 sont les plus abondantes en raison des températures élevées et des précipitations. Le pourcentage de littoraux sablonneux diminue au-delà du parallèle de 50 °. Cette distribution latitudinale des littoraux sablonneux est conforme à la variation latitudinale des sédiments communs dans le plateau continental interne signalée par Hayes31, sur la base de ~ 2000 transects provenant de 131 zones côtières (voir sous-placette droite à la Fig. 1).
Érosion mondiale de la plage de sable
L'érosion mondiale des plages est apparue au cours des années 80, à la suite des études du groupe de travail de l'Union géographique internationale sur la dynamique de l'érosion côtière (1972-1976) et de la Commission sur l'environnement côtier (1976-1984). Dans ces études, deux cents participants représentant 127 pays ont contribué à une enquête qui a indiqué que 70% (10%) des plages de sable du monde ont connu une érosion nette (accrétion) tandis que 20 % étaient stables32. Cependant, comme ces estimations étaient principalement le résultat d'entrevues, elles sont nécessairement qualitatives, au mieux. En outre, les estimations n'ont probablement pas pris en compte les changements intervenus le long des côtes non aménagées et inhabitées en raison de la méthodologie subjective adoptée.
La distribution mondiale quantitative des littoraux sablonneux présentée ici, pour la première fois, permet la dérivation d'une évaluation à l'échelle mondiale objective et à jour des changements chroniques du littoral (c'est-à-dire l'érosion / l'accrétion des plages). L'érosion des plages peut se produire à différentes échelles de temps33. Les tempêtes individuelles entraîneront généralement une érosion rapide à court terme, suivie d'une accrétion à court terme, entraînant une variation nette négligeable sur des échelles de temps de quelques semaines-mois. Si les carences en sédiments persistent pendant de longues périodes (par exemple, en raison des gradients de longeur dans le transport des sédiments, de la réduction de l'apport de sédiments fluviaux à la côte), une érosion chronique peut en résulter. L'analyse présentée ici met l'accent sur l'érosion chronique et l'accrétion. Cependant, il n'existe pas de normes communes pour la classification des taux de changement de plages chroniques34, qui est généralement quantifiée par un traitement statistique des taux d'érosion et / ou des pertes volumétriques (par exemple, réf.
La précision des données SDS d'environ 0,5 pixel (voir Section 1) et la période d'étude d'environ 30 ans permettent une classification des taux de changement de plage avec des limites de classes de 0,5 m / an. Par conséquent, nous avons adopté le système de classification chronique de l'érosion des plages proposé par Esteves et Finkl36 et l'avons étendu à une classification pour l'érosion extrême résultant du schéma ci-dessous:
Notre évaluation montre que 24 % des plages sableuses du monde s'érodent de façon persistante à un taux dépassant 0,5 m / an au cours de la période d'étude (1984-2016), tandis que 27 % s'accrotent (voir le tableau 1). Environ 16 % (18 %) des plages de sable connaissent des taux d'érosion (accrétion) supérieurs à 1 m / an.
L'érosion chronique des plages (<-0,5 M / an) est montrée à travers le globe avec une variation latitudinale relativement faible (voir Fig. 2). Généralement, entre 30 % et 40 % des plages sableuses par degré de latitude s'érodent avec des valeurs d'érosion relativement élevées jusqu'à 50% juste au sud de l'équateur, associées à des pertes de terres à grande échelle adjacentes à l'embouchure de l'Amazone.
- voir sur site - Figure 2
Points névralgiques mondiaux d'érosion et d'accrétion des plages; les cercles rouges (verts) indiquent l'érosion (accrétion) pour les quatre classifications dynamiques pertinentes du littoral (voir la légende). Les graphiques en barres à droite et en bas présentent l'occurrence relative de littoraux sablonneux qui s'érodent (s'accumulant) par degré de latitude et de longitude, respectivement. Les chiffres présentés dans la placette principale représentent le taux de changement moyen pour tous les littoraux sableux par continent. La carte est créée avec Python 2.7.12 (https://www.python.org) en utilisant Cartopy (v0.15.1, Met Office UK, https://pypi.python.org/pypi/Cartopy/0.15.1) et Matplotlib58 .
- voir sur site - Image pleine grandeur
Des taux d'érosion plus sévères sont trouvés à divers endroits à travers le globe. Environ 7 % des plages de sable du monde connaissent des taux d'érosion classés comme graves. Les taux d'érosion dépassent 5 m / an le long de 4 % du rivage sablonneux et sont supérieurs à 10 m / an pour 2 % du littoral sableux global. D'autre part, environ 8 % des plages sableuses du monde connaissent une accrétion significative (> 3 m / an), tandis que 6% (3%) s'accroissent de plus de 5 m / an (10 m / an).
Dans une perspective continentale, l'Australie et l'Afrique sont les seuls continents pour lesquels l'érosion nette (-0,20? M / an et -0,07? M / an) est retrouvée, tous les autres continents montrant une augmentation nette. Le continent ayant le taux d'accroissement le plus élevé (1,27 m / an, voir le tableau de la figure 2) est l'Asie, probablement en raison du développement artificiel de la côte chinoise et de grandes réclamations de terres à Singapour, Hong Kong, Bahreïn et ÉMIRATS ARABES UNIS. À l'échelle mondiale, les plages du monde se sont accrues en moyenne de 0,33 m / an au cours des trois dernières décennies, soit un gain total de 3 663 km² au cours de cette période.
En utilisant les données SDS nous nous sommes concentrés sur les zones protégées internationalement par la base de données mondiale sur les aires protégées (WDPA), qui est la base de données mondiale la plus complète sur les aires protégées terrestres et marines produite par le PNUE-WCMC et l'UICN37. Par rapport à la moyenne mondiale, un pourcentage relativement élevé de rivages sableux dans les zones identifiées par la WDPA connaissent une érosion. Notre analyse indique que 32 % de tous les littoraux marins protégés sont sableux, dont 37 % s'érodent à un taux supérieur à 0,5 m / an, tandis que 32 % s'accumulent.
Quantification de l'érosion / accumulation locale due aux interventions humaines
Aucune explication ne peut facilement expliquer les tendances d'érosion / d'accrétion observées le long du rivage sablonneux global, ou l'accélération de l'érosion / accrétion sur une plage donnée38. Cependant, l'analyse des tendances locales dérivées de l'évaluation des rives à l'échelle mondiale présentée ici peut aider à identifier les facteurs naturels et humains du changement du littoral. Pour illustrer ceci, nous présentons deux points forts du comportement érosif et deux du comportement relutif. Quatre autres points saillants sont présentés dans le document supplémentaire (S3).
a) Exploitation du sable et affaissement
Le delta du Mékong au Vietnam, le troisième plus grand delta du monde, est de plus en plus affecté par les activités humaines et exposé à l'affaissement et à l'érosion côtière. L'érosion des rives à grande échelle est attribuée à l'exploitation excessive du sable dans les canaux fluviaux et deltaïques et à l'affaissement dû à l'extraction non réglementée des eaux souterraines39. L'analyse des données SDS (figure 3a) révèle une légère érosion entre 1984 et 1990, après quoi des taux d'érosion plus élevés mais constants sont trouvés. Les taux d'érosion dans la zone considérée se situent généralement entre 25-30 m / an au cours des trois dernières décennies. Sur la base de la forte tendance linéaire, les données de la SDD peuvent être utilisées pour les projections de perte de terres et de stratégies de déplacement, car les taux d'érosion ne devraient pas diminuer dans un proche avenir si des mesures d'atténuation ne sont pas mises en œuvre.
- voir sur site - figure 3
Exemples de rives dérivées par satellite pour quatre cas choisis d'érosion et d'accrétion de plage attribuables à des interventions humaines. La colonne de gauche présente deux cas érosifs tandis que la colonne de droite montre deux cas accrétifs. Dans chaque figure, la ligne bleue indique la rive la plus ancienne de la SDD, tandis que la ligne rouge représente la rive la plus récente de la SDD. Les graphiques ci-dessous indiquent les positions du littoral au fil du temps au transect en pointillé blanc pour chaque cas; les graphes supérieurs correspondent aux images de la rangée supérieure. Les taux de changement indiqués (m / an) sont obtenus à partir de l'ajustement d'une ligne de meilleur ajustement aux données de position du littoral pour chaque transect. La figure est créée avec Python 2.7.12 (https://www.python.org) en utilisant Matplotlib58. Les cartes sont créées avec la version 2.18.3 de QGIS (Open Source Geospatial Foundation Project, http://qgis.osgeo.org) en utilisant des images satellites fournies par Google Maps. Données cartographiques: Google, Terrametrics, CNES / Airbus, IGP / DGRF et DigitalGlobe.
- voir sur site - Image pleine grandeur
b) Les structures côtières
Les structures portuaires de Nouakchott, en Mauritanie, ont bloqué le grand transport de sable littoral nord-sud unidirectionnel depuis 1986, causant des zones d'érosion des plages qui ont eu un impact sur les développements sociaux et urbains locaux. Les taux d'évolution des rives observés après la construction du port sont 10 fois plus élevés que les valeurs qui auraient été observées à l'état naturel40. Les brise-lames du port ont provoqué une grave érosion sur une distance de plus de 10 km dans la zone aval, où l'accrétion risquait de se produire en l'absence du port. Les données SDS (figure 3b) montrent des taux d'érosion de 20 µm / an.
Un système de dérivation à grande échelle est devenu opérationnel en 2001 à la rivière Tweed, en Nouvelle-Galles du Sud, en Australie, afin d'atténuer l'érosion des plages au nord des jetées construites à l'entrée de la rivière41. Le système de dérivation pompe le sable du sud de l'embouchure de la rivière vers trois compartiments de plage situés au nord de la rivière à travers des pipelines enfouis. Les données de la FDS (figure 3c) montrent un élargissement de plage de ~ 250 µm à la baie de Coolangatta dans les quatre années suivant la mise en service du système de dérivation.
d) Interception de la dérive littorale par les structures côtières
La construction de deux brise-lames d'entraînement à Praia da Barra près de la lagune d'Aveiro, au Portugal, a interrompu le transport côtier le long des côtes, estimé à environ 1 million de m3 / an42. Il en est résulté une érosion au sud de la passe d'eau entraînée affectant le littoral sur environ 30 km de profondeur, mais aussi une forte poussée d'accrétion. Les données SDS révèlent l'accrétion continue et continue de la plage nord à une vitesse d'environ 10 m / an (figure 3d).
- voir sur site -
Points chauds mondiaux de plages érosives et relutives
Nous présentons ici les tronçons côtiers les plus érodés et accrétifs (c'est-à-dire les points chauds) dans le monde (tableau 2). Le plus grand point chaud érosif est juste au sud de Freeport au Texas où un tronçon de 17 km de la plage a érodé en moyenne plus de 15 m / an au cours des trois dernières décennies. Le plus long tronçon côtier du monde souffrant d'érosion sévère est situé plus à l'est au Texas où nous avons observé une étendue de sable de 29 km avec un taux d'érosion moyen de 5,3 m / an. Fait intéressant, quatre des sept plus grands points chauds sont situés aux États-Unis, ce qui correspond à la préoccupation généralisée et aux rapports d'érosion aux États-Unis11,35,43,44.
Tableau 2 Les plus grands points chauds érosifs et reluisant de plage de sable du monde.
- voir sur site - Table pleine grandeur
Le plus grand point chaud relutif est en Namibie à un endroit où une compagnie minière a construit des diguettes de sable non protégées dans la mer pour faciliter la prospection de diamants. La zone située à l'intérieur des digues est asséchée pour faciliter la prospection de diamants. On trouve des plages de longueur supérieure à 20 km et des vitesses de changement supérieures à 7 m / an dans une île-barrière migratoire (Schiermonnikoog, Pays-Bas) et dans des zones de migration des dunes (Madagascar et Mauritanie). Il convient de noter que quatre des sept plus grands points chauds relutive sont en fait d'origine humaine.
Dans un proche avenir, nous prévoyons un grand potentiel pour les techniques de télédétection et l'analyse de données volumineuses dans la surveillance opérationnelle de la côte et des plages du monde. L'analyse globale des changements du rivage sablonneux présentée ici est principalement basée sur des images Landsat avec une résolution de 30 µm et un temps de retour de 16 jours. Au cours des dernières années, de nouveaux satellites (Sentinel-2a, b) qui enrichiront de manière significative les données d'imagerie satellitaire à la fois en résolution temporelle (temps de retour de quelques jours) et en résolution spatiale (<10 µm) ont été lancés. Actuellement, les institutions privées fournissent déjà des images satellites à env. Résolution de 1 M avec une revue quotidienne et une couverture mondiale. Nous nous attendons à ce que cette tendance exige de mettre davantage l'accent sur les statistiques de données volumineuses dans un proche avenir afin de mieux surveiller la façon dont la planète change.
Méthodes
Le flux de travail appliqué dans cette étude comprend trois méthodes telles que décrites ci-dessous et illustrées à la Fig. 4.
Pour l'analyse globale et la visualisation, nous avons défini des transects espacés de 500 µm orthogonaux au rivage global à partir de l'ensemble de données OpenStreetMap45 (OSM) de 2016. La longueur du littoral global, ainsi que par pays, est calculée en sommant les intersections droites transects. La longueur totale du rivage libre de glace à l'échelle mondiale déterminée à partir de cette analyse est de 1,11 million de km, ce qui est comparable aux valeurs précédemment rapportées de 1 million km3, 1,16 million km46 et 1,47 million km47. À l'avenir, nous avons l'intention de fusionner le système de transects de 500 µm avec les réseaux disponibles localement et de l'affiner le cas échéant.
Détection de plages de sable
Les plages sablonneuses sont détectées en appliquant une classification supervisée basée sur des pixels à une image composite de percentile de réflectance de Top of Atmosphere (TOA) pour l'année 2016 en utilisant toutes les images Sentinel-2 disponibles. Pour faciliter cela, le monde a été divisé en boîtes de 20 km × 20 km. À l'aide du rivage de l'OSM de 2016, nous ne sélectionnons que les cases qui se croisent avec le littoral de 2016, ce qui donne lieu à l'analyse d'environ 24 000 boîtes. Pour former le classificateur supervisé, une zone de plage entièrement constituée de sable est sélectionnée (sur l'île néerlandaise de Texel) ainsi que des zones d'entraînement sur des terrains représentant différents types d'utilisation des terres. Pour sélectionner l'algorithme de classification le plus prometteur, les résultats de la validation ont été comparés quantitativement à la fonction de plage de sable dans l'OSM. Parmi les quatre algorithmes de classification considérés, le classificateur Arbre de classification et de régression (CART) a produit la plus faible erreur d'omission et le pourcentage le plus élevé de vrais positifs (97 %) sur une plage de 100 km de long côte.
Ensuite, nous appliquons la méthode de classification supervisée à toutes les boîtes pour détecter les plages sablonneuses à l'échelle mondiale, car la fonction de plage OSM n'est pas disponible pour l'ensemble du globe. Une zone de recherche de 500 m au-dessus du littoral de l'OSM 2016, à l'intérieur et à la surface de la mer, est définie, après quoi la classification supervisée est effectuée à l'aide de GEE pour détecter automatiquement les plages de sable. Le résultat est une série de polygones encapsulant toutes les plages de sable du monde entier, y compris les sables quartzeux et carbonatés, et le gravier. Plus de 50 sites de validation de sable, répartis de manière aléatoire à travers le monde, ont été sélectionnés indépendamment de l'ensemble de données d'entraînement. La validation par inspection visuelle a donné une précision de 96% (voir le matériel supplémentaire S1).
Les transects qui se croisent avec un polygone de sable sont classés comme «sable» et les autres comme «non-sable». Les transects pour lesquels aucune classification de sable n'a pu être effectuée en raison de l'absence d'une image Sentinel-2 sans nuage sont étiquetés comme «composition de sédiments indéterminée». Comme cela s'applique à 5,2% de tous les transects, le pourcentage de plages de sable est de 31% ± 1,5%, en supposant que les zones inconnues se comportent comme la moyenne mondiale.
Détection dynamique du littoral
Pour éliminer les effets des nuages, des ombres, de la neige et de la glace, nous produisons des composites de réflectance top-of-the-atmosphere annuels, que nous utilisons ensuite pour estimer un masque d'eau de surface précis. Les images composites annuelles générées par les percentiles de réflectance de 15% par pixel ont été analysées afin de déterminer les positions du littoral à l'échelle mondiale, ce qui a entraîné la suppression des nuages et des ombres. Cette approche est comparable à la façon dont Hansen49 génère des images composites. Cependant, l'utilisation d'une valeur centile exacte s'avère plus appropriée que les moyennes moyennes d'intervalle utilisées dans cette étude. L'analyse des images composites diminue significativement l'influence du stade de la marée sur les positions de rivage détectées et permet de faire la moyenne de la variabilité saisonnière des caractéristiques des vagues et des plages. Néanmoins, sur les sites où la houle persiste, la mousse induite par les vagues due au déferlement des vagues introduira un décalage vers le large dans les rivages détectés. Fortuitement, cependant, cette persistance assure que le décalage induit par les vagues est probablement aussi présent dans les composites annuels et les rivages des autres années. Ainsi, les effets de la houle sur les rivages détectés sont susceptibles d'être limités, en particulier lorsque les taux de changement du littoral à long terme sur ces sites sont concernés.
Aux fins de validation avec les modifications à long terme des rives in situ, une période d'établissement de la moyenne optimale de 192 jours est appliquée; c'est-à-dire le premier nombre entier qui est trouvé en divisant le temps de retour global du capteur satellite (16 jours) par une période de marée semi-diurne (environ 12 heures). Dans le cas où toutes les images satellites de cet intervalle de moyenne sont exemptes de nuages, le niveau d'eau moyen correspond au niveau moyen de la mer. L'écart aléatoire potentiel d'une année à l'autre par rapport au «niveau moyen de la mer» dû aux images satellites omises est supposé avoir un effet limité sur la tendance sur 33 ans de la modification des rives; cette hypothèse sera vérifiée dans le cadre d'autres recherches.
Ensuite, les images composites résultantes sont utilisées pour estimer l'indice de différence d'eau normalisé (NDWI). Le filtre de détection de bord de Canny est utilisé pour estimer approximativement la position de la transition eau-terre, suivi de l'utilisation de la méthode de seuillage d'Otsu50 sur un polygone tampon autour de la transition eau-terre pour identifier le seuil le plus probable l'image. Les lignes d'eau détectées au bord du masque d'eau sont lissées en utilisant une opération de lissage gaussien 1D pour obtenir un rivage progressif évitant l'effet d'escalier induit par les pixels. Une valeur de trois donne les meilleurs résultats en fonction des quatre cas de validation; ce qui signifie qu'il faut trois cellules des deux côtés pendant le lissage 1D. La méthode peut donner lieu à plusieurs vecteurs riverains puisque les lacs et les petits canaux sont détectés. Dans ce cas, seule la position la plus au littoral est analysée.
D'autres études ont appliqué le changement global de l'eau de surface et la détection des occurrences48,51, mais elles manquent de validation avec les changements de rivage mesurés in situ. Un certain nombre d'études ont validé leurs méthodes avec des positions transversales à un endroit19 ou sur des échelles spatiales limitées15. Nous évaluons ici la validité de la méthode de détection des rives pour quatre cas représentant différents types de plages, de sable, de marées et de vagues. Compte tenu de la répartition géographique, nous avons sélectionné les plages suivantes avec des programmes de surveillance du littoral à long terme: Sand Engine (Pays-Bas), Long Beach, WA (Côte Ouest, États-Unis), Narrabeen (Australie) et Hatteras Island (Côte Est, États-Unis) . Ce dernier cas est présenté ci-dessous tandis que les autres sont présentés dans le Matériel supplémentaire (S2).
Validation de l'île Hatteras
La validation de la méthode de détection du littoral par rapport aux changements observés sur les rives a été effectuée le long de 63 km de rivage sablonneux de l'île Hatteras, en Caroline du Nord, s'étendant sur 13 ans52. Les rives mesurées utilisées dans l'analyse ont été générées à partir de photographies aériennes historiques géoréférencées et servent à élaborer des indicateurs du taux de changement du rivage pour l'île Hatteras, de l'inlet Oregon au nord jusqu'au cap Hatteras au sud. Au total, neuf photographies aériennes, couvrant la période allant de 1989 à 2002, ont été obtenues par l'US Field Corps of Engineers Field Research Facility à Duck, en Caroline du Nord. Les rives des hautes eaux ont été numérisées pour produire une série chronologique de rives pour la zone d'étude. Les taux de changement du littoral ont été calculés pour 1989-2002 à l'aide de la régression linéaire.
Pour la même période, nous avons rassemblé 325 images satellites sans nuage et déterminé la position du rivage pour ce tronçon côtier; l'analyse n'a pris que 8 heures au total en raison de la puissance de calcul de la plate-forme GEE. Pour chaque transect, une régression linéaire a été effectuée. Les tendances linéaires calculées à partir de la SDS montrent une bonne concordance avec les taux de changement observés dans les rives (voir la figure 5). Le décalage moyen pour tous les transects entre les observations et SDS est de 2,0 µm avec un RMSE de 17 µm.
Taux tendanciels observés (points rouges) et taux tendanciels dérivés du satellite pour la variation du littoral (ligne bleue) le long de l'île Hatteras pour la période 1989-2002. La figure est créée avec Python 2.7.12 (https://www.python.org).
- voir sur site - Image pleine grandeur
Le matériel supplémentaire (S2) résume les statistiques d'erreur pour les quatre cas. Sur la base de ces validations, on peut conclure que la méthode de détection du littoral permet de calculer les taux de changement du littoral à long terme pour divers milieux côtiers. La moyenne des décalages sur trois sites de validation est de 2,3 µm avec un RMSE de 21 µm.
Bien que l'évaluation quantitative de la méthode de détection du rivage appliquée avec des observations in situ montre de bonnes capacités, une vérification plus poussée est essentielle. Malheureusement, la quantification de l'influence des macro-marées, du déferlement et de la déferlante, des pentes des plages, etc. nécessite des informations sur les marées, les vagues et les plages, qui ne sont généralement pas disponibles gratuitement.
Taux de changement global pour les littoraux sablonneux
Pour l'application globale présentée ici, nous avons généré des composites annuels sans nuage en utilisant les archives d'images Landsat historiques. La méthode de détection automatisée du rivage produit 33 littoraux mondiaux annuels (1984-2016) avec une résolution côtière de 30 µm. Nous avons ensuite spécifié des transects à un espacement longitudinal de 500 m, et déterminé le point d'intersection de chaque transect avec les rives annuelles susmentionnées, ce qui fournit une séquence de positions riveraines par transect. Le taux de changement du rivage (m / an) à chaque transect est ensuite calculé en appliquant une régression linéaire à toutes les positions riveraines à cet endroit. Idéalement, un poste de SDD est disponible pour chaque transect chaque année. Cependant, la disponibilité des images satellites et de la couverture nuageuse peut limiter le nombre de positions SDS. Fait encourageant, cependant, 82 % de tous les transects sablonneux comprennent plus de dix positions riveraines annuelles entre 1984 et 2016. Néanmoins, pour éviter des taux de changement de rivage irréalistes, nous avons appliqué les filtres suivants à tous les transects sableux:
Les transects contenant moins de 5 (sur 33) points de données SDS ainsi que les transects avec une couverture temporelle inférieure à 7 ans sont omis de l'analyse (9% de tous les transects).
Les transects situés au-delà des latitudes 60 ° N et 50 ° S (y compris le Groenland et l'Antarctique) sont omis de l'analyse en raison de la couverture de glace possible (9 % de tous les transects).
Dans la régression linéaire, les valeurs aberrantes sont identifiées en tant que points SDS s'écartant plus de trois fois l'écart-type et donc non pris en compte dans la régression. Si le nombre de points de données restants est inférieur à 5 points, le transect est omis de l'analyse.
L'application de ces filtres réduit l'ensemble de données global à 81 % du nombre initial de transects sableux. La méthode de régression linéaire utilisée pour quantifier les taux de changement du littoral à long terme donne de bons résultats en ce qui a trait aux tendances des changements chroniques du rivage sablonneux, ce qui concorde avec les constatations de Crowell et al. Cependant, plusieurs transects ont été caractérisés par des changements instationnaires dans les positions SDS pour lesquelles d'autres méthodes pourraient être plus appropriées. En fin de compte, plus de 60% des 2,2 millions de transects présentent une bande passante d'incertitude inférieure à 50% du taux linéaire, ce qui peut être considéré comme un indicateur de la représentativité de la méthode de régression linéaire.
Les taux de changement du littoral, présentés à une résolution côtière de 500 mètres le long de la côte du monde, seront rendus publics et seront accessibles sur le site Web interactif à l'adresse: http://shorelinemonitor.deltares.nl.
Définir les points chauds
Afin d'éviter les points chauds localisés, on a veillé à ce que chaque point chaud d'érosion / accrétion comprenne au moins 5 km de rivage sableux où tous les transects considérés présentaient des taux de changement érosif ou relutif supérieurs à 0,5 µm / an sur les données de 33 ans. ensemble.
Deux réclamations de terres à grande échelle apparaissent dans les sept premières plages relutives du monde. L'une des raisons est que ces travaux de remise en état des terres consistaient en du sable nu en 2016, et sont donc reconnus comme une vaste plage de sable par notre méthodologie. L'autre raison est que les rivages adjacents ont progressé soit en raison des plans d'alimentation des plages, soit en raison de l'accumulation naturelle de sable dans les zones d'ombre de ces interventions.
Les vagues, les courants, les marées, les très grandes marées (upwelling), les sources chaudes éruptives sous-océaniques et sous-marines et les tremblements de terre modifient sans cesse la géographie des côtes dans le monde.
Chaque seconde ce sont 1,6 million de tonnes de roches, sables, cailloux qui sont bougés et drainés par les océans et les fleuves de la planète, soit une érosion de 53 milliards de tonnes par an. Autrement dit, l'érosion des sols due aux fleuves et océans représente 1 680 tonnes par seconde.
Visualiser les plus grands importateurs du monde en 2017
RépondreSupprimerpar Tyler Durden
Jeu, 07/12/2018 - 01:10
Pour la plupart des dirigeants mondiaux et des dirigeants d'entreprises, le basculement du pendule mondial vers des politiques plus protectionnistes a été une surprise désagréable.
C'est parce que les économistes et les historiens de l'économie sont d'accord pour dire que des mesures telles que le Smoot-Hawley Tariff Act de 1930, qui a déclenché une guerre commerciale pendant la Grande Dépression, ont grandement exacerbé des circonstances déjà désastreuses.
Il est courant que des mesures de rétorsion viennent contrecarrer les augmentations tarifaires, ce qui peut souvent se traduire par une baisse des échanges internationaux et une baisse de la croissance économique dans tous les secteurs. De 1929 à 1934, selon le Département d'État des États-Unis, le commerce mondial a diminué de 66% - en grande partie à la suite des guerres commerciales qui ont suivi le passage de Smoot-Hawley.
Pour les raisons ci-dessus, les barrières internationales au commerce ont diminué pendant des décennies - jusqu'à présent, bien sûr.
LES PLUS IMPORTANTS IMPORTATEURS
Quels pays peuvent faire le plus de poids avec les tarifs et les mesures de rétorsion?
Ce sont ceux qui importent le plus de biens - et l'infographie d'aujourd'hui de HowMuch.net montre les plus grands importateurs du monde en 2017, selon les données récemment publiées par l'Organisation mondiale du commerce.
- voir carte sur site -
Courtoisie de: Visual Capitaliste
Voici les 15 principaux importateurs mondiaux:
- voir liste sur site -
Les États-Unis arrivent en tête avec 2 409 milliards de dollars d'importations en 2017, soit environ 13,4 % du total mondial. Il vaut la peine de mentionner que cela représente 860 milliards de dollars de plus que les exportations du pays en 2017, et que la différence entre ces deux chiffres est le déficit commercial vivement débattu.
La Chine et l'Allemagne arrivent respectivement aux deuxième et troisième rangs, avec 1 842 milliards de dollars (10,2 % du total mondial) d'importations pour la Chine et 1 167 milliards de dollars (6,5 % du total) pour la plus grande économie européenne.
Après les trois grands, aucun autre pays n'a un chiffre supérieur à 5 % des importations mondiales, mais le Japon, le Royaume-Uni, la France, Hong Kong (Chine) et les Pays-Bas dépassent tous les 3 %.
https://www.zerohedge.com/news/2018-07-11/visualizing-worlds-largest-importers-2017
Cancérogènes OMS: Amiante, Arsenic, Cigarettes, Alcool, ... & Bacon ! ?
RépondreSupprimerpar Tyler Durden
Mercredi, 07/11/2018 - 23:05
Rédigé par Mac Slavo via SHTFplan.com,
L'Organisation mondiale de la santé a officiellement déclaré que le bacon était tout aussi dangereux pour la santé que le tabac. L'OMS a pris la décision de déclarer toutes les viandes transformées «cancérogènes pour l'homme» et ce n'est pas une bonne chose.
L'Organisation mondiale de la santé a officiellement classé les viandes transformées comme étant cancérigènes en octobre 2015. La décision a été prise par le Centre international de recherche sur le cancer (CIRC), basé sur un examen effectué sur 800 études dans le monde.
Ils ont affirmé que le rapport a trouvé "des preuves suffisantes chez l'homme que la consommation de viande transformée provoque le cancer colorectal". Selon le rapport du CIRC:
"La viande se compose de plusieurs composants, tels que le fer hème. La viande peut également contenir des produits chimiques qui se forment lors de la transformation ou de la cuisson de la viande.
Par exemple, les produits chimiques cancérigènes qui se forment lors du traitement de la viande comprennent les composés N-nitroso et les hydrocarbures aromatiques polycycliques.
La cuisson de la viande rouge ou de la viande transformée produit également des amines aromatiques hétérocycliques ainsi que d'autres produits chimiques, notamment des hydrocarbures aromatiques polycycliques, que l'on trouve également dans d'autres aliments et dans la pollution de l'air.
Certains de ces produits chimiques sont cancérogènes connus ou soupçonnés, mais en dépit de cette connaissance, on ne comprend pas encore complètement comment le risque de cancer est augmenté par la viande rouge ou la viande transformée. "
Cela signifie que ce n'est pas seulement du bacon, mais de la viande transformée qui pourrait être potentiellement cancérogène. Selon la déclaration de la vérité, l'OMS a pris la décision de bacon et d'autres viandes transformées dans les rangs d'autres substances notoirement cancérigènes tels que l'amiante, l'arsenic, les cigarettes et l'alcool. En fait, cette décision et l'histoire qui s'en suit sont toutes basées sur un sophisme: un appel à l'autorité, l'autorité de l'OMS.
Souvent, l'OMS, les CDC (Centers for Disease Control) et d'autres organisations gouvernementales ont la capacité de provoquer un tollé médiatique basé sur rien de plus ce qu'ils disent. L'OMS n'a aucune intention réelle de garder les gens en bonne santé, étant une force altruiste pour s'assurer que les gens n'obtiennent pas le cancer de l'intestin. Il serait naïf de penser que c'est la raison pour laquelle ils existent.
À la base de cette histoire, l'OMS et les organisations de santé justifient leur existence en émettant des avertissements sur des choses comme celle-ci.
L'OMS a un niveau de surface, où elle divulgue au public ce qu'elle recherche et essaie de justifier son existence par de petits avertissements comme celui-ci, puis elle a une profondeur plus profonde de ce qu'elle fait et de qui elle approuve, quelles recherches et quels produits promouvoir, et tout le reste.
De plus, ce n'est pas une bonne chose lorsque les organismes gouvernementaux commencent à reconnaître officiellement les choses. Quand le gouvernement commence à reconnaître «officiellement» le danger du tabac, il commence à essayer de faire des lois qui ne font que gonfler les poches des politiciens et créer de petits tracas ennuyeux pour les gens qui n'abandonnent pas leurs cigarettes. -Rapport de la vérité
RépondreSupprimerLa vérité est, presque tout le monde sait que le bacon n'est pas un «aliment de santé». Ce n'est pas un légume et il est chargé de graisse. Ce n'est pas la meilleure nourriture à manger et à cause de cela, la plupart des gens ont le bon sens de ne pas en manger une livre à la fois.
https://www.zerohedge.com/news/2018-07-11/who-carcinogens-asbestos-arsenic-cigarettes-alcohol-bacon
Cela démontre que l'OMS n'a AUCUNE validité !!
SupprimerLa cigarette ou l'alcool n'ont JAMAIS tué quelqu'un, SEUL L'ABUS tue !
L'histoire du 'bacon' vaut le coup d'être contée: Ils partent du principe que TOUTES viandes rôties (ou un peu brûlées) sont cancérigène, mais... ils prennent soin de s'arrêter sur le lard de porc afin de l'interdire et faire plaisir à leur chef excisé qui refuse d'en manger !
C'est TOUS les jours que TOUT LE MONDE consomme (depuis toujours !) des produits toxiques, mais le corps les élimine. TOUS les médicaments contiennent des produits toxiques, le pain contient même de l'arsenic ! L'eau pure, propre, de source est empoisonnée VOLONTAIREMENT par du fluor ! LISEZ CE QUI EST ÉCRIT SUR LES TUBES DE DENTIFRICE ! NE PAS AVALER, ATTENTION DANGER !!
BOUDRY (NE) / SOMALIE EXCISIONS AU PAYS JUGÉES DEVANT UN TRIBUNAL SUISSE
RépondreSupprimerUne femme répond de mutilations génitales sur ses filles en Somalie, avant son entrée sur le territoire helvétique.
YANNICK WEBER
11.07.2018
Comme 98 % des femmes en Somalie, l’accusée qui a fait face au Tribunal de police de Boudry, mercredi, a été excisée. Mais si elle devait répondre aux questions de la présidente, c’est parce que, avant d’arriver en Suisse, elle a également fait subir à ses deux filles la mutilation génitale. Et parce que le Code pénal vise à punir l’acte, même lorsqu'il est pratiqué à l’étranger.
La Somalienne, en habits traditionnels et avec l’aide d’une interprète, a, à la surprise de son avocate et face au sourire narquois de la procureure, cherché à défendre une nouvelle version selon laquelle la grand-mère aurait organisé l’excision des fillettes à son insu alors qu’elle tenait un stand au marché de Mogadiscio. Cette version n’a convaincu personne parmi le tribunal exclusivement féminin qui siégeait pour trancher le cas de cette pratique aux racines patriarcales.
«Un acte barbare»
La procureure Nathalie Guillaume-Gentil Gross, après avoir rappelé que l'excision représente un acte qui s'apparente à de la torture, a requis une peine de prison de 18 mois avec sursis: «Le but n’est pas de prononcer une peine, mais de faire passer un message. L’excision est interdite, peu importe où elle est pratiquée.»
L’avocate de l’accusée Béatrice Haeny, a, elle, rappelé le parcours de vie de celle qui a vécu la terreur des shebabs, qui est illettrée, et qui est arrivée en Suisse par regroupement familial pour retrouver un mari qui lui a fait subir des violences conjugales. «C’est un acte barbare, ignoble et d’un autre temps. Mais il faut tenter de comprendre cette autre culture. Toutes les femmes en Suisse qui ont fait exciser leurs filles devraient donc être condamnées ? Sous la pression, elle a répondu à un impératif culturel et doit être acquittée», a-t-elle plaidé.
Juger en Suisse un acte commis à l'étranger ?
Le débat s’est porté sur l’application de ce nouvel article du Code pénal. Peut-il faire condamner une femme pour des excisions même si elle n’avait alors aucun lien avec la Suisse? Oui, selon la procureure, qui a mentionné «l'universalité de la poursuite» prévue dans l'article. Non, selon l'avocate, qui interprète le même texte en y lisant une manière de réprimer le «tourisme de l'excision», où des fillettes établies en Suisse seraient excisées dans leur pays d'origine. Le verdict sera rendu jeudi après-midi. (Le Matin)
https://www.lematin.ch/suisse/excisions-pays-jugees-tribunal-suisse/story/16064827
La patrouille frontalière accuse le maire de New York de franchir illégalement la frontière entre les États-Unis et le Mexique
RépondreSupprimerpar Tyler Durden
Mer, 07/11/2018 - 18:05
Il s'avère que les réfugiés désespérés, les passeurs de clandestins et les trafiquants de drogue ne sont pas les seuls à franchir illégalement la frontière américano-mexicaine.
À cette liste, nous pouvons ajouter Bill de Blasio, maire de New York, et son entourage de sécurité. Selon une lettre envoyée à l'Associated Press, de Blasio a été accusé d'avoir violé les lois américaines et mexicaines après avoir traversé la frontière à pied lors d'une récente visite dans un centre de détention d'immigration près d'El Paso, au Texas. Le maire a répondu aux accusations mercredi, les qualifiant de "absolument ridicules".
De Blasio a été extrêmement critique à l'égard des politiques d'immigration de l'administration Trump et a déclaré que New York était un sanctuaire pour les immigrants illégaux.
L'incident s'est produit lorsque de Blasio a visité la frontière du Texas dans un groupe avec 20 autres maires le 21 juin, au lendemain de la signature par le président Trump d'une ordonnance arrêtant les séparations familiales à la frontière. Les maires vont documenter ce qu'ils décrivent comme une «crise humanitaire» créée par le président. Après s'être vu refuser l'entrée dans un centre de détention pour enfants immigrés séparés de leurs parents, de Blasio s'est ensuite rendu au Mexique pour avoir une meilleure vue de l'établissement avec ses informations de sécurité. Le NYPD est en charge de la sécurité de de Blasio.
Tandis que le groupe de Blasio se tenait dans la plaine inondable du Rio Grande en train de prendre des photos du centre de détention, un agent de la police des frontières en uniforme a remarqué le groupe et s'est approché d'eux. L'agent a demandé si quelqu'un de la patrouille frontalière ou des affaires publiques les avait accompagnés pour autoriser leur visite. Un membre du service de sécurité de de Blasio a dit non, et quand l'agent leur a demandé comment ils étaient arrivés, ils ont fait un geste en direction du Mexique.
L'agent les a alors informés qu'ils avaient traversé la frontière illégalement et leur a demandé de rester sur place pendant qu'il en informait son superviseur et les emmenait à un passage à niveau officiel pour une inspection par loi fédérale. Mais le groupe a ignoré l'agent et est retourné à leurs véhicules et a entrepris de rentrer au Mexique. Ils sont ensuite rentrés en voiture par un port d'entrée environ trois heures plus tard, selon la lettre.
En réponse à la lettre, de Blasio a déclaré l'accusation "absolument ridicule" et a déclaré qu'il avait reçu l'approbation de passer d'un superviseur de la patrouille frontalière, selon le Daily Caller.
Le porte-parole du maire Eric Phillips soutient que le groupe n'a rien fait de mal et a été autorisé à être là.
"Le maire a franchi la frontière avec l'approbation directe et sous la supervision du superviseur de la patrouille frontalière à ce point d'entrée", a déclaré M. Phillips dans un courriel adressé à l'Associated Press. "Toute suggestion contraire est un mensonge flagrant et une tentative évidente par quelqu'un d'attaquer le maire en raison de son plaidoyer pour que les familles soient déchirées à la frontière par l'administration Trump."
De Blasio a déclaré à l'AP que lui et les membres de son équipe ont montré leur passeport et l'ont approuvé avec les agents au point d'entrée.
RépondreSupprimer"Les menaces de l'administration Trump ne m'empêcheront pas de parler et elles n'empêcheront pas mes collègues maires de s'exprimer, et ils ne cesseront pas tous les jours les New Yorkais et les Américains de s'exprimer", a déclaré M. de Blasio.
La lettre a été envoyée le 25 juin par Aaron Hull, l'agent de patrouille en chef du secteur El Paso de la patrouille frontalière, au commissaire de la police de New York, James O'Neill.
De Blasio a qualifié cette lettre de menace organisée par l'administration Trump pour le faire taire.
https://www.zerohedge.com/news/2018-07-11/border-patrol-accuses-nyc-mayor-illegally-crossing-us-mexico-border
L'IA va-t-elle changer le monde ou simplement booster les profits ?
RépondreSupprimerpar Tyler Durden
Mercredi, 07/11/2018 - 14:49
Auteur de Charles Hugh Smith via le blog OfTwoMinds,
La vraie bataille n'est pas entre une vision caricaturale ou un cauchemar dystopique - c'est entre la propriété décentralisée et le contrôle de ces technologies et la propriété et le contrôle centralisés.
Le battage médiatique autour de l'intelligence artificielle (IA) et de ses cousins Big Data et Machine Learning est omniprésent, et largement non examiné. L'IA va changer le monde en libérant l'humanité de la plupart de ses travaux, etc. etc.
Commençons par demander: à qui appartient cette IA ? Cela soulève deux autres questions: qui profite du «logiciel mange le monde» (pour reprendre l'expression lapidaire de Marc Andreesen), et dans quel but cette technologie est-elle appliquée ?
Les réponses sont douloureusement évidentes: les grandes sociétés mondiales, dont beaucoup fonctionnent comme des quasi-monopoles (Facebook, Google et autres), sont les propriétaires de ces nouvelles technologies, et le but poursuivi est de maximiser les profits et d'assurer un monopole qui assure des profits élevés dans le futur.
Le battage publicitaire prend deux voies prévisibles, une euphorie de Jetson-cartoonish et l'autre ruine dystopique. Les véhicules autonomes vont changer le monde de manière merveilleuse en éliminant la source des accidents: l'erreur humaine.
Et c'est une perspective cauchemardesque, que vont faire ces millions de gens qui conduisent actuellement des véhicules ?
Peu de gens demandent: qui profitera de tout cela ? De toute évidence, les fabricants de véhicules autonomes et les propriétaires de services qui remplacent les véhicules privés.
La vraie course dans l'IA est de sécuriser les franchises rentables et d'éliminer les concurrents en augmentant plus rapidement que les autres sociétés.
C'est pourquoi le marché encourage Netflix à brûler des milliards de dollars chaque année: s'ils brûlent des milliards, ils doivent être plus rapides que leurs concurrents, et ils seront ainsi les «gagnants» de la course à la création et à la distribution de contenus médiocres.
Considérez les utilisations que l'IA détenue par les entreprises a déjà utilisées pour maximiser les profits: la manipulation par Facebook des flux de données et de contenus de ses utilisateurs et la vente de leurs données.
Après un bref ralentissement en raison des craintes de régulation, le marché est de nouveau amoureux des immenses bénéfices de Facebook, et le stock de Facebook atteint à nouveau des records.
L'intelligence artificielle et la collecte de données volumineuses constituent le cœur rentable de Surveillance Capitalism, qui comprend les contrats gargantuesques d'Amazon avec les agences de sécurité nationale et des travaux similaires réalisés par de nombreux autres sous-traitants (SAIC, et al.)
Plutôt qu'un monde Jetson-cartoonish de robots intelligents faisant tout le travail afin que nous puissions tous devenir des poètes et regarder des films médiocres toute la journée, ce que l'IA fait dans le monde réel tire des profits des données collectées de la population efficacement ou de contrôler la population plus efficacement.
Les enthousiastes de l'IA-robotique ne semblent jamais vraiment travailler dans l'industrie de la robotique AI. Ce sont des types de médias qui extrapolent des extrapolations sans poser les questions clés: qui va posséder cette technologie, et dans quel but sera-t-elle appliquée?
RépondreSupprimerNous connaissons les réponses: les entreprises mondiales et la maximisation des profits.
Démanteler une partie seulement de la vision du monde des robots et de l'IA de Jetson-cartoonish devient essentiellement gratuite pour tout le monde: la fabrication d'un robot ne sera jamais gratuite car les robots ont besoin de grandes quantités d'énergie et de maintenance. Même si le travail humain a été complètement éliminé, les coûts d'extraction, d'affinage et de transport des ressources restent, ainsi que les coûts d'extraction de l'énergie pour faire tout ce travail, ainsi que pour fabriquer et assembler toutes les pièces.
L'élimination du travail humain supprime très peu de la structure de coûts.
Quant au logiciel d'IA étant «gratuit», il sera gratuit comme le système d'exploitation Android et l'iOS d'Apple: gratuit pour ceux qui développent des utilisations rentables des franchises appartenant à l'entreprise.
Dans ma vision du monde, AI a un but: éliminer les préjugés et les privilèges. Un logiciel correctement programmé ne gardera aucune trace de la couleur de la peau ou d'autres sources de biais humain.
Le danger est que les logiciels détenus par les entreprises suivent tout ce qui peut être utilisé pour commercialiser ou contrôler la population, et cela inclut toutes les nuances de partialité et de privilège.
La vraie bataille n'est pas entre une vision caricaturale ou un cauchemar dystopique - c'est entre la propriété décentralisée et le contrôle de ces technologies et la propriété et le contrôle centralisés.
Le système CLIME (tel que décrit dans mon livre Un monde radicalement bénéfique) est en fait un système d'IA décentralisé et distribué qui organise un réseau de groupes communautaires autonomes et démocratiques qui paient les membres pour effectuer le travail nécessaire dans leurs communautés.
L'intelligence artificielle sera-t-elle exploitée pour maximiser les profits pour les quelques riches, ou est-ce qu'une partie mince et décentralisée de ces technologies servira réellement des besoins humains non rentables ?
https://www.zerohedge.com/news/2018-07-11/will-ai-change-world-or-simply-boost-profits
L''Intelligence Artificelle' N'EXISTE PAS ! Il s'agit uniquement de programmes sophistiqués guère plus 'intelligent' qu'un interrupteur électrique pour éclairer une lampe !
SupprimerIl s'agit uniquement d'un lobbying destiné à vendre ce qui n'existe pas à des particuliers. Or, chez les particuliers n'existe pas de sécurité comparable aux grands établissements. Donc: tous gadget acheté est piratable !
C'est ce qui est aussi appelé 'l'obsolescence programmée' ou 'le commerce des voleurs'.
Bucket list: Données historiques sur la température de l'océan mondial - le pedigree manquant est une comédie d'erreurs
RépondreSupprimer11 juillet 2018
Par Hartmut Hoecht
1. Introduction
Ce document aborde le mépris flagrant au sein de la communauté scientifique dans le traitement des erreurs de données thermiques du sondage océanique global. Les enregistrements récents et plus anciens sont compilés avec des températures notées en petites fractions de degrés, tandis que leurs processus de collecte fournissent souvent des erreurs beaucoup plus importantes que des degrés entiers. À la suite de méthodes grossières, le fondement même de l'historique et de la validité de la base de données actuelle est remis en question, ainsi que les prédictions de la température globale pour le futur.
Suivez-moi dans l'exploration de la façon dont le record mondial de température de l'océan a été recueilli.
Premièrement, un point de référence pour une discussion plus approfondie:
Wikipédia, provenant de la NASA Goddard, a un graphique illustratif des températures mondiales avec une superposition de moyenne quinquennale. Focus sur la période de refroidissement entre le milieu des années 1940 et le milieu des années 1970. On peut constater le début rapide du refroidissement, qui s'élevait à environ 0,3 degré C en 1945, et son inversion plus tard clairement discernable.
- voir graphique sur site -
Indice de température terrestre-océanique de 1880 à nos jours, avec période de base 1951-1980. La ligne noire continue est la moyenne annuelle globale et la ligne rouge continue correspond à la courbe basse de cinq ans, c'est-à-dire une analyse de régression non paramétrique reposant sur un modèle de k voisin le plus proche. La fonction est évaluée en utilisant une fraction de données correspondant à une fenêtre de données de dix ans, ce qui donne un lissage effectif d'environ cinq ans. Les barres d'incertitude bleues (limite de confiance à 95%) ne tiennent compte que de l'échantillonnage spatial incomplet. Ceci est basé sur la figure 1A dans Hansen et al. (2006) et Fig. 9a dans Hansen et al. (2010). Source: https://commons.wikimedia.org/wiki/File:Global_Temperature_Anomaly.svg
L'article de mai 2008 de Thompson et al dans Nature a attiré mon attention. Gavin Schmidt de RealClimate et aussi le New Scientist l'ont commenté. Thompson prétend qu'il a trouvé la raison pour laquelle le refroidissement des années 1940 a commencé avec un renversement aussi radical de la tendance de chauffage précédente, quelque chose qui a apparemment intrigué les scientifiques pendant longtemps. La raison de cette baisse de température a été donnée comme le changement dans les méthodes de collecte des données de température de l'océan. C'est-à-dire changer la pratique consistant à plonger les godets d'échantillonnage dans la lecture des températures d'entrée d'eau de refroidissement du moteur.
Regardons de plus près cette période de refroidissement.
Avant et après la Seconde Guerre mondiale, la flotte britannique utilisait la «méthode du seau» pour recueillir l'eau de l'océan afin de mesurer sa température. Autrement dit, un seau rempli d'eau a été échantillonné avec un thermomètre à bulbe. L'autre méthode de sondage répandue consistait à lire les températures d'entrée d'eau de refroidissement des navires.
Ces deux méthodes de collecte de données sont expliquées dans une lettre de 2008 à Nature, où Thompson et al. Ont inventé le libellé suivant (SST = sea surface temperature):
RépondreSupprimer"Le changement le plus notable dans les archives SST après décembre 1941 est survenu en août 1945. Entre janvier 1942 et août 1945 ~ 80% des observations proviennent de navires d'origine américaine et ~ 5% proviennent de navires d'origine britannique; entre la fin de 1945 et 1949 seulement ~ 30% des observations sont d'origine américaine et environ 50% sont d'origine britannique. Le changement de pays d'origine en août 1945 est important pour deux raisons: premièrement, en août 1945, les navires américains comptaient principalement sur les mesures d'admission dans la salle des machines, tandis que les navires britanniques utilisaient principalement des mesures de seau non isolées; aux mesures de seau non isolées. "
Les observateurs du climat avaient détecté une bosse dans le delta entre l'eau et les températures atmosphériques nocturnes (NMAT). Par conséquent, on pensait qu'ils avaient trouvé le coupable pour le flip inexpliqué de 0,3 degrés C dans les températures autour de 1945, qui les a invités à modifier et à modifier les enregistrements. Les corrections de biais appliquées, selon Thompson, "pourraient augmenter les tendances du siècle en augmentant les SST récents jusqu'à ~ 0,1 deg. C ".
Apparemment, cette correction des biais a été mise en évidence dans le résumé du GIEC 2007 à l'intention des décideurs. La question à poser - comment la correction de 0,1 degrés de Thompson était appliquée - était-elle uniforme? Au cours de quelle période de temps? Est-ce que le nombre de 0,1 degré est une estimation et arbitrairement choisi ? Tient-il compte des erreurs de mesure, celles discutées plus loin dans ce document?
Une question fondamentale se pose: quel est notre record de température? Avec quelle confiance pouvons-nous établir des lignes de tendance et des scénarios futurs? Il est évident que nous devons connaître les chiffres avec une précision de 0,1 degré C pour permettre une interprétation raisonnable des enregistrements et projeter de façon réaliste les températures mondiales futures.
Nous examinerons en détail les méthodes de mesure de la température de l'eau de mer, et nous découvrirons que les données sont très grossières, souvent de plus d'un ordre de grandeur!
Tout d'abord, il est prudent de présenter les fondamentaux, afin d'établir une compréhension commune.
2. Les bases
Nous pouvons probablement convenir que, pour extraire des tendances définies des données de température globales, la résolution de ces données devrait être au moins de +/- 0,1 degré C. Une vieille règle empirique pour toute mesure cite l'instrument ayant une précision supérieure à trois fois de la résolution ciblée. Dans notre cas c'est + / 0.03 degré C.
Les caractéristiques de l'instrument thermique définissent l'erreur en pourcentage de la gamme complète. La résolution de lecture est une autre erreur, tout comme l'erreur de lecture. Exemple: supposons qu'un thermomètre ait une plage de 200 degrés, que la précision de 2% soit de 4 degrés, que la gradation (résolution) soit de 2 degrés. La précision de la lecture peut être de 0,5 degrés, à discerner entre les gradations, si vous «striez correctement».
Passons maintenant aux instruments eux-mêmes.
RépondreSupprimerLa température est mesurée directement à l'aide de thermomètres à bulbe et à fonction capillaire à base de liquide, de jauges à cadran bimétalliques et, à l'aide de l'électronique, de thermistances, ainsi que de quelques méthodes spécialisées. Les températures du satellite par satellite sont interprétées indirectement à partir de la réflexion radiative infrarouge.
Nous connaissons tous les thermomètres remplis de capillaires et de liquides que nous rencontrons quotidiennement. Ceux-ci et ceux à base de bimétal ont une précision typique de +/- 1 à 2% et ne sont pas plus précis qu'à 0,5 degré C. Les thermistances peuvent être très précises sur un calibrage précis.
La collecte de données de température dans la nature ne se concentre pas uniquement sur le dispositif de lecture thermique. Il s'agit toujours d'un système qui comprend à divers degrés la méthode de collecte des données, le stockage temporaire des données, la conversion et la transmission des données, la manipulation, etc. le support mesuré, les différents observateurs et interprètes, etc. Tout ceci contribue à l'erreur du système. Les composants d'erreur individuels sont séparés en les erreurs connues connues et les erreurs aléatoires. En outre, nous devons faire attention aux «chiffres significatifs» lors de l'évaluation des contributeurs d'erreur, car une erreur de précision peut s'introduire, lorsque le calcul de l'erreur totale.
Compilation d'erreurs:
Toutes les erreurs identifiées comme des erreurs aléatoires sont combinées en utilisant la racine carrée de la méthode de la somme des carrés (RSS). Les erreurs systématiques sont combinées par sommation algébrique. L'imprécision totale est la somme algébrique de l'erreur aléatoire totale et de l'erreur systématique totale.
3. Méthodes de mesure de la température de l'océan prédominantes
a. Observations par satellite
La collecte de données par des capteurs infrarouges sur les satellites NOAA a mesuré les températures de surface de l'eau avec des radiomètres à haute résolution.
Les mesures sont indirectes et doivent prendre en compte les incertitudes associées à d'autres paramètres, qui ne peuvent être que faiblement estimés. Seule la couche d'eau la plus élevée peut être mesurée, ce qui peut induire une forte erreur diurne. Les mesures par satellite sont entrées en service vers les années 1970, de sorte qu'elles n'ont aucune corrélation avec le profil thermique antérieur. Cependant, comme ce sont des méthodes indirectes de lecture de la température de l'océan et qu'elles comportent de nombreuses couches de correction et d'interprétation avec des aspects d'erreur uniques, elles ne sont pas étudiées ici. Un tel effort justifierait toute une autre évaluation détaillée.
b. Mesure directe de la température de l'eau - historique
Le trempage d'un thermomètre dans un seau d'un échantillon d'eau prélevé a été utilisé avant la nécessité de comprendre les gradients thermiques dans les parties plus profondes de l'océan. Ce dernier est devenu vital pour la guerre sous-marine, avant et pendant la Seconde Guerre mondiale. Auparavant, la connaissance de la température de l'eau n'était nécessaire que pour la prévision météorologique.
La 'méthode du seau':
RépondreSupprimerTypiquement, un seau en bois a été lancé d'un navire en mouvement, transporté à bord, et un thermomètre à bulbe a été trempé dans ce seau pour obtenir la lecture. Après les premiers en bois, les seaux en toile sont devenus prédominants.
- voir graphique sur site -
a) Seau en bois; (b) un seau en toile; (c) Scoop allemand (version moderne). [Le chiffre de couleur peut être consulté à wileyonlinelibrary.com].
Avec une plus grande attention à la précision, des godets isolés en toile ont été introduits. En plus de la précision typique du thermomètre de 0,5 à 1,0 degré C, les sources d'erreurs aléatoires hautement variables étaient:
profondeur de l'immersion du godet
mélange de la couche de surface à partir d'une action variable des vagues et du réchauffement solaire
barattage de la couche de surface du sillage du navire
Différentiel variable entre la température de l'eau et de l'air
direction relative entre le vent et le mouvement du navire
amplitude de la vitesse du vent combinée et de la vitesse du bateau
intervalle de temps entre la collecte de l'eau et les lectures thermiques réelles
temps nécessaire pour que le thermomètre prenne la température de l'eau
degré de thermomètre en remuant (ou non)
lire au centre par rapport au bord du seau
thermomètre à bulbe humide de refroidissement pendant la lecture de la température
acuité optique et attitude de l'opérateur
Efficacité de l'isolation du godet et des effets de refroidissement par évaporation des fuites
échange thermique entre la surface du pont et le godet
Voici une séquence infrarouge montrant comment l'eau se refroidit dans un seau en toile.
- voir graphique sur site -
Figure 3. (a) - (d) Images thermiques prises à des intervalles de 5 min du Met. Office Mk II seau en toile (Figure 1) rempli d'eau chaude accroché devant un ventilateur positionné à droite dans ces images. Le seau n'est pas agité et le couvercle est fermé.
Les figures ci-dessus de cet article:
Mesures et modèles du changement de température des échantillons d'eau dans les seaux de température de surface de la mer
Graziella Carella, Alexis R Morris,
RépondreSupprimerRÉSUMÉ: L'incertitude dans les ajustements de biais appliqués aux mesures historiques de température de surface de la mer (SST) effectuées à l'aide de godets est considérée comme la plus grande contribution à l'incertitude des tendances de la température de surface globale. Les mesures de la variation de la température des échantillons d'eau dans des seaux en bois et en toile sont comparées aux prévisions des modèles qui ont été utilisés pour estimer les ajustements de biais appliqués dans les analyses quadrillées largement utilisées de SST. Les résultats montrent que les modèles sont globalement capables de prédire la dépendance du changement de température de l'eau au cours du temps sur le forçage thermique et les caractéristiques du godet: volume et géométrie; structure et matériel. Les modèles et les observations indiquent que le paramètre environnemental le plus important entraînant des biais de température dans les mesures historiques du godet est la différence entre les températures de l'eau et du thermomètre mouillé. Cependant, les hypothèses inhérentes à la dérivation des modèles sont susceptibles d'affecter leur applicabilité. Nous avons observé que l'échantillon d'eau devait être vigoureusement agité pour correspondre aux résultats du modèle, qui suppose des conditions bien mélangées. Il y avait des incohérences entre les résultats du modèle et les mesures précédentes effectuées dans une soufflerie en 1951. Le modèle suppose un écoulement incident non turbulent et prédit par conséquent une dépendance à peu près carrée de la vitesse du courant d'air. Les mesures en soufflerie, prises sur une large gamme de flux d'air, ont montré une dépendance beaucoup plus forte. En présence de turbulence, le transfert de chaleur augmentera avec l'intensité turbulente; pour les mesures effectuées sur les navires, le flux d'air incident est susceptible d'être turbulent et l'intensité de la turbulence est toujours inconnue. Pris ensemble, les incertitudes dues aux effets de la turbulence et à l'hypothèse d'échantillons d'eau bien mélangés devraient être substantielles et pourraient représenter le facteur limitant de l'application directe de ces modèles pour ajuster les observations historiques de SST.
Lectures de température d'entrée de moteur:
Le moteur diesel d'un navire utilise une boucle de refroidissement séparée, pour isoler le métal de l'effet corrosif et salissant de l'eau de mer. La température d'entrée d'eau brute est le plus souvent mesurée par jauge (précision typique de 1 degré C et jamais recalibrée), qui est installée entre la pompe d'entrée et l'échangeur de chaleur. Il n'y aurait aucune raison d'installer des thermomètres directement à côté de la coque sans que les données ne faussent le réchauffement de la salle des machines, un emplacement qui serait autrement plus utile à des fins de recherche.
Les influences de mesure aléatoires à considérer:
- profondeur de l'entrée d'eau
- degré de mélange de la couche de surface du vent et du soleil
- réveil du barattage du navire, également en fonction de la vitesse
- différentiel entre l'eau et la température de la salle des machines
- température ambiante variable du moteur
De plus, il y a des erreurs de système variable à long terme à considérer:
- apport d'énergie thermique supplémentaire de la pompe d'aspiration
- dégradation de l'isolation de la tuyauterie et de l'encrassement interne.
c. Sondes XBT déployées (Bathythermographe extensible)
RépondreSupprimerLes mesures de sonar et le besoin de sous-marins cachés de la détection dans les couches d'inversion thermique ont alimenté le développement initial et le déploiement des sondes XBT. Ils sont lancés à partir de navires et de sous-marins en mouvement. Les données de température sont envoyées à bord du navire via le défilement d'un mince fil de cuivre de la sonde, alors qu'il prend une vitesse descendante légèrement décroissante. La température est lue par une thermistance; le traitement et l'enregistrement des données sont effectués avec des instruments de bord. La profondeur est calculée en fonction du temps écoulé et en fonction de la formule spécifique du fabricant. Les lectures de thermistance sont enregistrées via des changements de tension du signal.
Erreurs aléatoires introduites:
- effet de retard thermique du stockage à bord de la sonde par rapport à la température d'immersion initiale
- dérive de calibration induite par le temps de stockage
- contrainte dynamique plus changement de l'effet de la température sur la résistance du fil de cuivre pendant la descente
- effet de retard thermique variable sur la thermistance pendant la descente
- variabilité de la température de surface par rapport à la stabilité des couches d'eau plus profondes
- variabilité induite par l'opérateur de l'instrument.
d. Bouées flottantes ARGO
Le concept de ces bouées immergées est une approche astucieuse qui permet à près de 4 000 dispositifs de ce type dans le monde entier d'enregistrer de manière autonome des données sur l'eau, tout en dérivant à différentes profondeurs océaniques. Périodiquement, ils transmettent en surface et par lots le temps, la profondeur (et la salinité) et l'historique des températures enregistrés par satellite aux stations au sol pour interprétation. L'objectif principal d'ARGO est d'établir une quasi-simultanéité des relevés de température de la flotte jusqu'à 2500 mètres afin de brosser un tableau complet de la chaleur contenue dans les océans.
Étonnamment, les seules données de précision fournies par les fabricants ARGO sont la haute précision de 0,001 degré C de leur thermistance étalonnée. Les questions posées au bureau du programme ARGO ont révélé qu'ils n'avaient aucune connaissance d'une erreur du système, une sensibilisation que l'on devrait certainement attendre de cet établissement scientifique sophistiqué. Une enquête sur diverses erreurs avec le fabricant de sondes ARGO prédominant reste sans réponse.
En fait, les erreurs aléatoires suivantes doivent être évaluées:
- temps de simultanéité valide dans les lectures de profondeur et de température, étant donné que les flotteurs se déplacent avec les courants et peuvent passer dans différents modèles de circulation, c'est-à-dire différents verticalement et latéralement
- effets de retard thermique
- les lectures invalides près de la surface sont éliminées; étendue inconnue de la profondeur de l'erreur
- erreur dans les transmissions par lots de l'antenne par satellite due à l'action des vagues
- erreur dans les transmissions bidirectionnelles, applicable aux flotteurs de modèle ultérieurs
- interférence d'onde et de pulvérisation avec la transmission de données par satellite IRIDIUM haute fréquence 20/30 GHz
- lacunes de l'opérateur et de l'enregistrement et mauvaise interprétation des données
En outre, il existe des erreurs de résolution, de traitement et d'enregistrement des systèmes d'instrumentation inconnues, telles que la grossièreté de la conversion analogique / numérique, les effets du vieillissement de la batterie flottante, etc. gage sans recherche détaillée.
e. Bouées océaniques amarrées
RépondreSupprimerLes bouées ancrées à long terme ont des lacunes dans la portée verticale, ce qui est limité par leur besoin d'être ancré, ainsi que par la rapidité des lectures et des enregistrements. De plus, ils sont sujets à l'encrassement et perturbent la fonction de capteur de la flore biologique marine. Leur distribution est liée à l'ancrage près du rivage. Cela les rend d'une valeur limitée pour l'étude générale de la température des océans.
F. Sondes de conductivité, température, profondeur (CTD)
Ces sondes présentent la méthode la plus précise de lecture de la température de l'eau à différentes profondeurs. Ils mesurent généralement la conductivité, la température (aussi souvent la salinité) et la profondeur ensemble. Ils sont déployés à partir de navires de recherche stationnaires, équipés d'une grue à flèche pour abaisser et récupérer les sondes instrumentées. Des données thermiques précises sur les thermistances à des profondeurs connues sont transmises en temps réel via un câble aux enregistreurs embarqués. Les mesures de sonde sont souvent utilisées pour calibrer d'autres types de sondes, telles que XBT et ARGO, mais le coût opérationnel et la sophistication en tant qu'outil de recherche les empêchent d'être utilisées sur une large base.
4. Contributions d'erreur significatives dans diverses mesures thermiques océaniques
Ici, nous essayons d'attribuer des erreurs opérationnelles typiques aux méthodes de mesure listées ci-dessus.
a. La méthode Bucket
Folland et al dans l'étude "Corrections des biais instrumentaux dans les données historiques de température de surface de la mer" Q.J.R. Metereol. Soc. 121 (1995) a tenté de quantifier le biais de la méthode du seau. Le document élabore sur les enregistrements de température historiques et les variations dans les types de godets. De plus, il est significatif qu'aucune entité maritime n'ait jamais suivi de protocole pour la collecte de telles données. Les auteurs de ce rapport entreprennent une analyse de transfert de chaleur très détaillée et comparent les résultats à certains essais en soufflerie réels (seaux non isolés se refroidissant de 0,41 à 0,46 degré C). Le calcul des données comprenait de nombreuses variables globales, ainsi que certaines lectures de température d'entrée du moteur. Les corrections de Folland sont de +0,58 à 0,67 degré C pour les godets non isolés et de +0,1 à 0,15 degrés pour les godets en bois.
En outre, Folland et al. (1995) déclarent que «les corrections de la température de la surface de la mer obtenues à l'échelle mondiale et saisonnière qui en résultent augmentent de 0, 11 ° C. C en 1856 à 0,42 deg. C en 1940. "
Il n'est pas clair pourquoi les corrections du 19ème siècle seraient sensiblement plus petites que celles du 20ème siècle. Pourtant, cela pourrait être une conclusion de la prédominance antérieure de l'utilisation de seaux en bois (étant effectivement isolant). Il est également étonnant de voir comment ces chiffres sont corrélés à la déclaration généralisante de Thompson selon laquelle les SSTs récents devraient être corrigés par une erreur de polarisation allant jusqu'à ~ 0,1 deg. C " ? Qu'en est-il d'inclure le nombre de 0,42 degrés ?
En considérant une erreur de système - voir 3b. - les facteurs variables d'importance prédominante sont le refroidissement diurne, saisonnier, solaire et aérien, la répartition de l'eau par rapport à la température de l'air, plus une erreur fixe de précision du thermomètre de +/- 0,5 degré C, au mieux. De manière significative, le remplissage du seau ne se produit pas à plus de 0,5 m sous la surface de l'eau, par conséquent, cette couche d'eau varie grandement en température diurne.
RépondreSupprimerTabatha, 1978, dit de la mesure sur un navire de recherche canadien - «SST ont été jugés biaisés à environ 0,1 ° C chaud, SST de l'admission du moteur était un ordre de grandeur plus dispersé que les autres méthodes et biaisé 0,3 ° C chaud». Donc, ici les deux méthodes mesurent le biais chaud, c'est-à-dire que les facteurs de correction doivent être négatifs, même pour la méthode du godet, qui sont l'opposé des nombres de Folland.
Où commencer en assignant des valeurs aux facteurs aléatoires ? Il semble presque impossible de simuler un scénario de moyenne valide. Par exemple, faisons un calcul d'erreur re. une température spécifique de la surface de l'eau avec un seau non isolé.
Refroidissement par air 0,50 degrés (aléatoire)
Transfert au bord du pont 0,05 degrés (aléatoire)
Précision du thermomètre 1.0 degrés (fixe)
Lecture et parallaxe 0.2 degrés (aléatoire)
Erreur e = 1,0 + (0,52 + 0,052 + 0,22) 1/2 = 1,54 degré ou 51 fois la précision souhaitée de 0,03 degré (voir aussi section 2.0).
b. Mesures d'admission du moteur
Saur 1963 conclut: "Le biais moyen des températures d'eau de mer rapportées par rapport aux températures de surface de la mer, avec des limites de confiance de 95%, est estimé à 1,2 +/- 0,6 deg F (0,67 +/- 0,3 deg) sur la base de d'un échantillon de 12 navires. L'écart-type est estimé à 1,6 deg F (0,6 deg C) ... Le biais du navire (biais moyen des températures d'injection d'un navire donné) varie de -0,5 deg F à 3,0 deg F (0,3 deg C à 1,7 deg C ) parmi 12 navires. "
Les erreurs de SST d'admission du moteur dépendent fortement des conditions de fonctionnement dans la salle des machines (Tauber 1969).
James et Fox (1972) montrent que les admissions à une profondeur de 7 m ou moins montrent un biais de 0,2 degré C et que les entrées plus profondes ont des biais de 0,6 degré C.
Walden, 1966, résume les enregistrements de nombreux navires comme indiquant 0,3 degré C trop chaud. Cependant, il est douteux qu'une instrumentation précise ait été utilisée pour calibrer les lectures. Par conséquent, son numéro de 0,3 degré est probablement dérivé grossièrement avec des thermomètres standard de précision de ½ ou 1 degré.
Faisons un calcul d'erreur re. une température d'eau spécifique à l'entrée de la coque.
Précision du thermomètre 1.0 degré (fixe)
Salle du moteur ambiant delta 0,5 degré (aléatoire)
Entrée d'énergie de la pompe 0,1 degré (fixe)
Erreur totale 1,6 degré C ou 53 fois l'exactitude souhaitée de 0,03 degrés.
Une condition des mesures d'admission du moteur qui diffère fortement des lectures du godet est la profondeur sous la surface de l'eau à laquelle les mesures sont collectées, c'est-à-dire à plusieurs mètres de la surface. Cette méthode fournit des températures plus fraîches et beaucoup plus stables par rapport aux godets qui pincent l'eau et sautent le long de la surface supérieure. Cependant, la température de la salle des machines semble très influente. De nombreux enregistrements ne sont donnés qu'en degrés complets, ce qui correspond à la résolution typique du thermomètre.
RépondreSupprimerMais, encore une fois la seule erreur fixe donnée est la précision du thermomètre d'un degré, ainsi que le delta de chauffage de l'énergie de la pompe. Les erreurs variables peuvent être d'une ampleur significative sur les grands navires et elles sont difficiles à généraliser.
Toutes ces grandes variations rendent l'enregistrement de l'admission du moteur presque impossible à valider. En outre, l'enregistrement a été recueilli à un moment où l'étalonnage basé sur la recherche était presque jamais pratiqué.
c. XBT Sondes
Lockheed-Martin (Sippican) produit plusieurs versions, et ils annoncent une précision de température de +/- 0,1 degré C et une précision du système de +/- 0,2 degré C. Aiken (1998) a déterminé une erreur de +0,5 et en 2007 Gouretski a trouvé un biais moyen de +0.2 à 0.4 degré C. La communauté de recherche implique également des variations de précision avec différents dispositifs d'acquisition et d'enregistrement de données et recommande l'étalonnage par des sondes CTD parallèles. Il existe une variante significative de la corrélation profondeur-température, à propos de laquelle les chercheurs tiennent encore des ateliers pour éclairer.
Nous pouvons seulement faire des hypothèses grossières pour l'erreur totale. Compte tenu de l'erreur système de 0,2 degrés répertoriée par le fabricant et de la plage d'erreurs mentionnée ci-dessus, nous pouvons choisir une erreur totale de, disons, 0,4 degré C, soit 13 fois l'erreur souhaitée de 0,03 degré.
d. Flotteurs ARGO
Le principal fabricant de flotteurs basé aux États-Unis, APEX Teledyne, affiche une précision de +/- 0,001 degré C, étalonnée en laboratoire (dégradée à 0,002 degré avec dérive). Ils ont confirmé ce numéro après avoir récupéré quelques sondes après plusieurs années de service. Cependant, il n'y a aucune précision de système donnée, et le fabricant reste muet aux demandes. La communication de l'auteur avec le bureau du programme ARGO révèle qu'ils ne connaissent pas l'exactitude du système. Cela signifie qu'ils connaissent la précision de la thermistance et rien au-delà. La suite de capteurs de température / salinité Seabird Scientific SBE est utilisée dans presque toutes les sondes, mais la société, lors de requêtes par courrier électronique, ne révèle pas sa contribution d'erreur. On ne sait rien sur les erreurs de liaison par satellite ou les précisions de traitement à terre.
Hadfield (2007) rapporte une transection de navire de recherche à 36 degrés de latitude nord avec des mesures CTD. Ils les ont comparés aux données de température du flotteur ARGO des deux côtés du transect et ils sont enregistrés dans les 30 jours et parfois au-delà. En général, les données concordent à moins de 0.6 degré C RMS et à 0.4 degré C à l'est et à 2.0 degrés à l'ouest. Ces lectures ne se rapportent pas à l'exactitude des flotteurs eux-mêmes, mais se rapportent à l'utilité limitée des données ARGO, c'est-à-dire la simultanéité temporelle et la localisation géographique des lectures de température océaniques globales. Cette incertitude indique des limites significatives pour déterminer la teneur en chaleur des océans, ce qui est la raison d'être d'ARGO.
Le manuel de qualité ARGO pour les données CTD et les données transectorielles précise le marquage des données probablement mauvaises. La dérive de température entre deux valeurs moyennes doit être max. 0,3 degré comme critère d'échec, la moyenne à 0,02 et un minimum de 0,001 degré.
RépondreSupprimerAffecter un budget d'erreur aux relevés flottants ARGO signifie certainement beaucoup plus élevé que la valeur de 0,002 degré indiquée par le fabricant.
Alors, essayons:
Erreur système attribuée 0,01 degré (supposé fixe)
Erreur de l'enregistreur de données et granularité 0.01 (fixe)
Transmission de données par lots 0,05 (aléatoire)
Granularité des données au sol 0.05 (fixe)
Erreur totale 0.12 degrés, ce qui est quatre fois la précision souhaitée de 0,03 degrés.
Cependant, la corrélation de Hadfield avec les lectures CTD d'un transect de navire varie jusqu'à 2 degrés, ce qui est attribuable à l'écart temporel et géographique et à une certaine quantité de courant océanique et de changement thermique saisonnier, en plus des erreurs de flottement inhérentes.
L'épisode de refroidissement océanique Willis 2003/5 de la NASA:
Cette question est discutée plus en détail dans la section sommaire 5.
En 2006, Willis a publié un article qui faisait état d'une brève période de refroidissement des océans, basée sur les enregistrements des profils flottants ARGO.
"Les chercheurs ont constaté que la température moyenne de l'océan supérieur a augmenté de 0,09 degré Celsius (0,16 degrés F) de 1993 à 2003, puis a diminué de 0,03 degré Celsius (0,055 degrés F) de 2003 à 2005. La baisse récente est une baisse égale à environ un cinquième de la chaleur acquise par l'océan entre 1955 et 2003. "
La correction papier de 2007 aborde cette tendance apparente du refroidissement en 2003/4 en supprimant des flotteurs ARGO programmés à tort (liés à la pression) et en corrélant des données XBT biaisées à chaud plus tôt, qui, ensemble, minimiseraient considérablement l'ampleur de cet événement de refroidissement.
L'objectif principal de Willis consistait à déterminer la teneur en chaleur de l'océan et les influences sur le niveau de la mer. Ce qui suit sont des extraits de son article, avec et sans le texte de correction.
Avant correction:
"L'incertitude moyenne est d'environ 0,01 ° C à une profondeur donnée. Le signal de refroidissement est réparti sur la colonne d'eau, la plupart des profondeurs subissant un certain refroidissement. Une petite quantité de refroidissement est observée à la surface, bien que beaucoup moins que le refroidissement en profondeur. Ce résultat du refroidissement de surface de 2003 à 2005 est cohérent avec les produits SST mondiaux [par ex. http://www.jisao.washington.edu/data_sets/global_sstanomts/]. Le refroidissement maximum se produit à environ 400 m et un refroidissement important est encore observé à 750 m. Ce modèle reflète la superposition compliquée des modèles de réchauffement et de refroidissement régionaux avec différentes dépendances en profondeur, ainsi que l'influence des changements de la circulation océanique et du soulèvement associé de la thermocline.
Le signal de refroidissement est toujours fort à 750 m et semble s'étendre plus profondément (figure 4). En effet, des estimations préliminaires de 0-1400 m OHCA basées sur des données Argo (non montrées) montrent qu'un refroidissement supplémentaire s'est produit entre des profondeurs de 750 m et 1400 m. "
RépondreSupprimerAprès correction:
".... un défaut qui a entraîné des valeurs de température et de salinité associées à des valeurs de pression incorrectes. La taille du décalage de pression dépendait du type de flotteur, variait d'un profil à l'autre, et variait de 2 à 5 db près de la surface à 10 à 50 db à des profondeurs inférieures à environ 400 db. Presque tous les flotteurs de l'OMSI FSI (287 instruments) et environ la moitié des flotteurs WHOI SBE (environ 188 instruments) ont souffert d'erreurs de cette nature. La majeure partie de ces flotteurs ont été déployés dans l'océan Atlantique, où le refroidissement parasite a été trouvé. Le biais froid est supérieur à -0,5 ° C entre 400 et 700 m dans la moyenne sur les données affectées.
L'erreur de profondeur de 2% présentée ici est en bon accord avec leurs résultats pour la période. La raison du refroidissement apparent dans l'estimation combinant les données XBT et Argo (figure 4, ligne pointillée épaisse) est le rapport croissant des observations d'Argo aux observations XBT entre 2003 et 2006. Ce rapport de variation fait que l'estimation combinée montre un refroidissement comme il s'éloigne des données XBT polarisées à chaud et vers les valeurs Argo plus neutres.
Des erreurs de pression systématiques ont été identifiées dans les profils de température et de salinité en temps réel d'un petit nombre de flotteurs Argo. Ces erreurs ont été provoquées par des problèmes de traitement des données Argo et des versions corrigées de nombreux profils affectés ont été fournies par le fournisseur float.
Ici, les erreurs dans les équations de taux de chute sont proposées comme étant la cause principale du biais chaud XBT. Pour la période d'étude, on trouve que les sondes XBT attribuent des températures à des profondeurs d'environ 2% trop profondes. "
Notez que Willis et ses co-auteurs ont estimé le contenu thermique des 750 mètres supérieurs. Cette zone représente environ 20% de la profondeur moyenne de l'océan mondial.
En outre, la figure 2 donnée dans l'article de Willis montre le profil de profondeur thermique de l'un des flotteurs ARGO éliminés, c'est-à-dire correct par rapport à erroné.
- voir graphique sur site -
Fig. 2. (à gauche) Anomalie de température en fonction de la profondeur par rapport au WGHC pour les flotteurs WHOI avec des valeurs de pression incorrectes (ligne bleue) et les flotteurs non-WHOI de la même région (ligne rouge). Les données ont été limitées à l'Atlantique et à des latitudes comprises entre 50 ° S et 50 ° N du 1er janvier 2003 au 30 juin 2007. (droite) Effet de la correction pour un flotteur WHOI FSI unique dans l'Atlantique sud. De Willis 2007
En calculant l'erreur à une profondeur spécifique, nous pouvons obtenir un différentiel de 0,15 degré, allant d'environ 350 à 1100 m. Cette valeur diffère de la distorsion à froid de -0,5 degré comme indiqué ci-dessus, bien que définie à 400 et 700 mètres.
Toutes ces explications de Willis sont très déroutantes et n'inspirent aucune confiance dans toutes les précisions des mesures thermiques ARGO.
RépondreSupprimer5. Observations et résumé
5.1 Relevé des températures océaniques avant 1960/70
Essayer d'extraire un enregistrement de chauffage de l'océan et des lignes de tendance pendant les périodes de seau et les premières lectures d'entrée de moteur semble une entreprise futile en raison de la vaste distorsion d'erreur de données systématique et aléatoire.
Les lectures d'eau de seau ont été faites à des fins météorologiques seulement et
a. sans protocoles de qualité et avec une éventuelle qualification du personnel marginal
b. par de nombreux pays, marines et navires de la marine marchande
c. sur des océans distincts et souvent contenues dans les routes commerciales
ré. de manière significative, ramasser seulement à partir d'une mince couche de surface
e. avec une instrumentation qui était beaucoup plus grossière que la qualité désirée
F. soumis à de larges variations physiques d'échantillonnage et à des perturbations environnementales
Les données de température d'entrée du moteur étaient également grossières, en raison de
a. manque de contrôles de qualité et de journalisation par des opérateurs peu qualifiés
b. thermomètres impropres à la précision nécessaire
c. soumis à de grandes perturbations de l'intérieur de la salle des machines
d. variations de la profondeur d'admission
e. et encore, souvent confiné à des océans spécifiques et des routes de la circulation
Les températures d'entrée du moteur différaient significativement des relevés de surface les plus élevés,
a. étant d'une couche de profondeur différente
b. étant plus stable que la couche supérieure chauffée diurne et solaire
Observation # 1:
Au cours de la transition dans les méthodes de mesure de la température de l'océan primaire, il semble logique de trouver un renversement de l'enregistrement de la température autour de la Seconde Guerre mondiale en raison des changements dans la méthode prédominante de collecte de données de température. Cependant, trouver un facteur de correction spécifique pour les données ressemble plus à de la spéculation, parce que les deux méthodes de collecte historiques sont trop disparates dans les caractéristiques et dans ce qu'elles mesurent. Cela semble être un cas de la comparaison proverbiale des pommes et des oranges. Cependant, le fait d'un début de refroidissement rapide en 1945/6 doit encore être reconnu, car les années suivantes sont restées fraîches. Ensuite, la courbe de réchauffement au milieu des années soixante-dix a recommencé brusquement, comme le montre le graphique de la section 1 si distinctement.
5.2 Mesures XBT et ARGO plus récentes:
RépondreSupprimerMême si l'enregistrement XBT est d'une précision limitée, comme l'indique la précision du système d'un fabricant de +/- 0,2 degré, nous devons reconnaître ses avantages et ses inconvénients, en particulier au vu du dossier ARGO.
Données XBT:
une. ils remontent aux années 1960, avec un dossier étendu
b. un calibrage continu vers les mesures CBT est nécessaire car les formules de profondeur de calcul ne sont pas toujours précises
c. Les données XBT sont fermes en termes de temps et d'origine géographique simultanés, ce qui permet des comparaisons statistiques
d. biais reconnu des lectures de profondeur, qui sont relatable à la température
Données ARGO:
a. la quantité utile et la distribution des cycles flottants n'existent qu'en 2003
b. la précision des données est considérée comme extrêmement élevée, mais avec une précision du système inconnue
c. la collecte de données peut être référencée uniquement au moment de la transmission des données par satellite. La direction du courant océanique intermédiaire et le mélange thermique pendant les cycles de flottaison ajoutent aux incertitudes.
d. l'étalonnage par sondage CTD est entravé par la séparation géographique et temporelle et a conduit à des écarts de température de trois ordres de grandeur, c'est-à-dire 2,0 (Hadfield 2007) contre 0,002 degrés (déclaration du fabricant)
e. les erreurs de programmation ont historiquement lu des corrélations de profondeur défectueuses
f. erreurs inconnues de transmission de données par satellite, pouvant se produire avec l'atténuation du signal de fréquence 20/30 GHz due à l'action des vagues, aux embruns et à la pluie dure.
Observation n ° 3:
Les données du flotteur ARGO, malgré l'intention initiale de créer une carte précise du contenu calorifique de l'océan, doivent être reconnues compte tenu de ses limites. La communauté ARGO ne connaît pas l'erreur du système de température du flotteur.
La recherche Willis de la NASA sur l'enquête 2003/4 sur le refroidissement des océans laisse beaucoup de questions ouvertes:
a. Est-il possible d'élargir la validité de certaines lectures de refroidissement ARGO d'une partie de l'Atlantique à la base de données de l'ensemble de l'océan mondial ?
b. Est-il crédible de conclure qu'une correction à un faible pourcentage de profils de température décalés en profondeur erronés à travers une gamme verticale étroite a un impact thermique suffisant sur la masse de tous les océans, comme le refroidissement global ou non ?
c. Willis soutient que l'apparition de lectures ARGO précises autour de l'année 2003 par rapport à l'enregistrement antérieur de XBT biaisé chaud a déclenché l'apparition apparente du refroidissement de l'océan. Cependant, ce biais chaud XBT était bien connu à ce moment-là. N'aurait-il pas pu expliquer ce biais en comparant l'ARGO avant-après à sa notoriété ?
RépondreSupprimerd. Pourquoi le biais de -0,5 ° C donné par Willis diffère-t-il significativement du différentiel de 0,15 degrés que l'on peut voir sur son graphique ?
Observation n ° 4:
Le sujet de recherche de Willis et al semble être un exemple de mélange inapproprié de deux types génériques différents de données (XBT et ARGO) et conclut, étonnamment
a. l'enregistrement antérieur à 2003 devrait être actualisé pour les troubles de refroidissement apparents et
b. cet enregistrement antérieur à 2003 devrait toujours être valable pour déterminer la ligne de tendance de la chaleur calorifique océanique.
Willis déclare "... le refroidissement de surface de 2003 à 2005 est cohérent avec les produits SST globaux" (SST = température de surface de la mer). Cette déclaration contredit la conclusion ultérieure selon laquelle le refroidissement a été invalidé par les résultats de ses corrections de 2007.
En outre, la manipulation par Willis des méta-données flottantes avec les données XBT est assez confuse pour faire une question de ses conclusions dans le document de correction de 2007.
Observations sommaires
Il semble que l'historique des relevés de température du godet et de l'admission des moteurs devrait être considéré comme anecdotique, historique et excessivement grossier, plutôt que de servir la recherche scientifique des tendances du réchauffement de l'océan. Avec l'avènement des sondes XBT et ARGO, les lignes de tendance sont lues avec plus de précision, mais elles sont souvent masquées par l'erreur des systèmes d'instruments.
Une tentative d'établissement de la tendance de la température de l'océan doit tenir compte de l'ampleur des erreurs aléatoires par rapport aux erreurs de système connues. Si l'on essaie de trouver une ligne de tendance dans un champ d'erreur aléatoire élevée, la valeur moyenne peut se trouver à l'extrême de la bande d'erreur, pas en son centre.
La température de l'océan devrait être discernable à environ 0,03 degrés C de précision. Cependant, les erreurs système dépassent souvent cette précision jusqu'à trois ordres de grandeur!
Si les recherches citées par Willis de la NASA sont symptomatiques pour la communauté scientifique océanique en général, il ne faut pas faire confiance à la diligence scientifique supposée dans la conduite de l'analyse.
De nombreux scientifiques semblent éviter de faire preuve d'une grande prudence dans la prise en compte appropriée de l'origine des données pour leur exactitude et leur pertinence, compte tenu de l'importance accordée à la manipulation statistique des métadonnées et de ce qui se trouve sur l'écran. Souvent, il n'y a tout simplement pas assez d'informations sur la fidélité des données brutes pour faire des estimations réalistes de l'erreur, ni pour tirer des conclusions quant à savoir si les données sont appropriées pour ce qui est utilisé.
En outre, la base de la moyenne statistique signifie faire la moyenne de la même chose. La moyenne des données de température des océans au cours du temps ne peut pas combiner les moyennes d'un enregistrement d'origine, d'instruments et de méthodes de données très variables. Leur pedigree individuel doit être connu et pris en compte!
RépondreSupprimerEnfin, une proposition:
Thompson, en identifiant l'oscillation de la température de l'ère de la Seconde Guerre mondiale entre les enregistrements d'entrée du godet et du moteur, les avait corrélés à NMAT, c'est-à-dire les températures nocturnes pour chacune des deux méthodes de collecte. Les NMAT peuvent constituer un moyen - probablement limité - de valider et de relier les données disparates depuis le XIXe siècle jusqu'aux futures enquêtes par satellite.
Ceci pourrait être accompli par des croisières de navire de recherches dans les zones océaniques froides, tempérées et chaudes, mesurant simultanément, c'est-à-dire re. l'heure et le lieu, les températures d'entrée du seau et du moteur représentatives et le déploiement d'une poignée de sondes XBT et ARGO, tout en sondant le CBT en même temps. Et tous ces processus doivent être corrélés dans des conditions de nuit similaires et avec des mesures satellitaires localisées. Avec ce calibrage croisé, on pourrait retracer les enregistrements historiques et déterminer les températures de delta à leurs NMAT, où une telle correspondance peut être trouvée. De cette façon, les NMAT pourraient devenir la pierre de Rosette pour valider les enregistrements océaniques anciens, récents et futurs. Ainsi, les tendances passées et futures peuvent être évaluées plus précisément. Assurément, le financement de ce projet devrait être facile, car il corrélerait et confirmerait la validité d'une grande partie des lectures de la température de l'océan, passées et futures.
https://wattsupwiththat.com/2018/07/11/bucket-list-historic-global-ocean-temperature-data-the-missing-pedigree-is-a-comedy-of-errors/
Le climat se réchauffe : la preuve en image !
RépondreSupprimerle 12 juillet 2018
Ce court billet est une caricature de la façon de travailler de nombreux pseudo-scientifiques. J’ai capté cette image dans les Hauts-de-Seine il y a trois jours et comme vous pouvez le constater il s’agit bien d’un bananier en fleur. Je doute que la « popote » conduise à un régime de belles bananes …
- photo d'un bananier (avec fleur !) -
Mais il n’y a aucun doute le climat s’est réchauffé puisqu’un bananier a fleuri dans la banlieue parisienne en plein air. C’est ainsi que travaillent les spécialistes du climat et les anglo-saxons appellent ce genre de malhonnêteté du « cherry-picking ».
https://jacqueshenry.wordpress.com/2018/07/12/le-climat-se-rechauffe-la-preuve-en-image/
Une photo d'inuits alaskiens faisant la 'popotte' autour d'un petit feu de camps aurait suffit ou, le cadavre désossé d'un pingouin victime d'un 'Thanksgiving' décalé; mais, c'est un bananier (!).
SupprimerLes bananiers poussent en serres jusqu'au pôle Nord et, dehors l'été. L'hiver, le gel s'empare de la plante pleine d'eau mais, au printemps, des pousses repoussent !
En métropole, il faudra 6 à 7 ans pour qu'un bananier puisse émettre une fleur (9 mois en Martinique !), puis 'bananes' de 10 cm qui mûrissent en 2 mois (!!).
______________________________
Stormy Daniels arrêté dans l'Ohio Strip Club
RépondreSupprimerpar Tyler Durden
Jeu, 07/12/2018 - 07:38
Stormy Daniels a été arrêtée dans un club de strip-tease de Columbus, Ohio, lors de sa tournée "Make America Horny Again" pour avoir permis à un client de la toucher sur scène, selon son avocat Michael Avenatti. Selon le compte Instagram de Daniels, elle devait jouer et le club Sirens à Columbus, Ohio.
Après l'arrestation, Avenatti a déclenché une série de tweets: "Je viens de dire que mon client @StormyDaniels a été arrêté à Columbus Ohio dans le même acte qu'elle a joué à travers le pays dans près d'une centaine de clubs de strip-tease". C'était une installation et motivée politiquement. "
"Elle a été arrêtée pour avoir soi-disant permis à un client de la toucher sur scène, d'une manière non sexuelle!" Il a ensuite tweeté.
Michael Avenatti
@MichaelAvenatti
Je viens de dire que mon client @StormyDaniels a été arrêté à Columbus Ohio dans l'ensemble du même acte qu'elle a effectué à travers le pays dans près d'une centaine de clubs de strip-tease. C'était une installation et motivée politiquement. Ça sent le désespoir. Nous allons combattre toutes les accusations fausses. #Basta
6h47 - le 12 juillet 2018
Michael Avenatti
@MichaelAvenatti
Elle a été arrêtée pour avoir soi-disant permis à un client de la toucher alors qu'elle était sur scène d'une manière non sexuelle! Vous plaisantez j'espère ? Ils consacrent des ressources d'application de la loi aux opérations de piqûre pour ceci ? Il doit y avoir des priorités plus élevées !!! #SetUp #Basta
07h06 - 12 juillet 2018
Michael Avenatti
@MichaelAvenatti
Nous attendons qu'elle soit libérée sous caution sous peu. Nous nous attendons également à ce qu'elle soit accusée d'un délit pour avoir permis de «toucher». Nous allons contester avec véhémence toutes les accusations. #Basta
07h27 - 12 juillet 2018
Daniels a été arrêté en vertu d'une loi de l'Ohio connue sous le nom de Community Defense Act, qui interdit à quiconque de toucher un danseur nu ou semi-nu, à moins qu'ils ne soient liés.
Cassandra Fairbanks
@CassandraRules
Apparemment dans une partie de son acte, elle prend un client sur scène ou quelque chose. Pendant ce temps, elle les a touchés ou ils l'ont touchée, mais non sexuellement ... cependant, en Ohio, les stripteaseurs ne peuvent toucher personne qui n'est pas un parent quand ils sont nus ou semi-nus.
PirateKing
@AlPirateKing
En réponse à @CassandraRules
Pourquoi a-t-elle été arrêtée ?
9h14 - 12 juillet 2018
Concrètement, l'acte «interdit à un salarié qui apparaît régulièrement nu ou dénudé dans les locaux d'une entreprise à caractère sexuel, alors qu'il se trouve sur les lieux et nue ou dénudé, de toucher sciemment un client qui n'est pas membre de sa famille immédiate. . ... ou permettre à un client qui n'est pas membre de la famille immédiate de l'employé ou à un autre employé qui n'est pas un membre de la famille immédiate de l'employé de toucher les vêtements de l'employé ou de l'employé.
RépondreSupprimerCertaines «touches» font face à des pénalités plus graves. Toucher les parties génitales d'un danseur, les fesses ou la «poitrine féminine en dessous d'un point immédiatement au-dessus du sommet de l'aréole» est un délit au premier degré, passible de six mois de prison et d'une amende de 1 000 $. Une deuxième infraction est un délit au quatrième degré, passible d'une peine d'emprisonnement pouvant aller jusqu'à 30 jours et d'une amende de 250 $. -Dispatch.com
Alors qu'Avenatti prétend que cela est politiquement motivé, peut-être la plus grande question est pourquoi l'Ohio ne laissera pas une personne au hasard toucher une strip-teaseuse, tandis que quelqu'un lié à la même strip-teaseuse peut aller en ville? Peut-être que Stormy aurait dû sauter l'Ohio et s'envoler pour voir les enfants migrants qu'elle avait promis de visiter à la frontière, qu'elle n'a d'ailleurs pas trouvé le temps de faire malgré une performance de moins de cinq kilomètres la semaine dernière.
Au cas où vous vous demanderiez à quoi ressemble Stormy, Amanda Whiting du Washingtonian a détaillé son expérience des seins de Stormy dans les moindres détails cette semaine.
Sentir les seins de Stormy Daniels contre votre joue, c'est comme plonger tête première dans une fosse à balles de velours. Ses seins sont le parfait rapport de doux à ferme. Quand je dis à Stormy Daniels à quel point ses propres seins sont doux, dans un cri de "Material Girl", elle dit "merci" dans une expiration miraculeusement audible et installe ses lèvres dans un baiser sur ma tempe droite. Je lui donne mon dernier $ 7 et recule dans les ombres bleu-noir.
Quand j'hésite, Stormy prend le dessus, posant mon visage contre sa poitrine, qui a l'impression de rebondir dans le mur d'un moonbounce de guimauve. Elle murmure à mon oreille. Elle m'embrasse bonne nuit. Elle me laisse lui donner mon argent. -Washingtonian
https://www.zerohedge.com/news/2018-07-12/stormy-daniels-arrested-ohio-strip-club
SupprimerC'est l'Arabie Saoudite ? Bahreïn ? israel ? ou... NON ! C'est aux États-Unis d'Amérique !!!
Attention aussi à celui qui s'en branle !! Hahahaha !
JUSTICE - L'ALLEMAGNE AUTORISE LA REMISE À MADRID DE PUIGDEMONT
RépondreSupprimerLa justice allemande a autorisé jeudi la remise à l'Espagne du leader indépendantiste Carles Puigdemont pour malversations. «Nous nous battrons jusqu'au bout», assure celui-ci.
12.07.2018, 11h22
La justice allemande a autorisé jeudi la remise à Madrid du chef indépendantiste catalan Carles Puigdemont pour malversations. Elle a par contre rejeté le motif plus grave de rébellion pour lequel il est inculpé en Espagne.
«L'extradition pour l'accusation de détournement de fonds publics est recevable, une extradition pour l'accusation de rébellion n'est pas recevable», a indiqué le tribunal du Schleswig-Holstein. Il revient désormais au procureur d'organiser cette remise aux autorités espagnoles.
Dans l'intervalle, «Carles Puigdemont reste libre», a ajouté le tribunal. Il a précisé par la suite qu'il allait «décider sous peu de l'autorisation d'extrader l'accusé pour détournement de fonds».
Carles Puigdemont a assuré qu'il se battrait «jusqu'au bout». «Nous avons vaincu le principal mensonge soutenu par l'Etat. La justice allemande dit que le référendum du 1er octobre n'est pas de la rébellion», a ajouté Puigdemont.
Carles Puigdemont
@KRLS
Hem derrotat la principal mentida sostinguda per l'Estat. La justícia alemanya nega que el referèndum del 1 d'octubre fos rebel·lió. Cada minut que passen els nostres companys a la presó és un minut de vergonya i injustícia. Lluitarem fins al final, i guanyarem!
12:21 - 12 juil. 2018
Le successeur de Puigdemont à la tête du gouvernement catalan, Quim Torra, a de son côté assuré sur Twitter que la décision de la justice allemande «démontre une fois de plus les tromperies et les mensonges de poursuites judiciaires qui n'auraient jamais dû être entamées».
Accusation «aberrante»
La décision du tribunal porte un coup aux chefs d'accusations espagnols. Elle peut empêcher un procès pour rébellion, crime passible de 30 ans de prison en Espagne: «la cour part du principe que le tribunal espagnol respectera (la décision allemande) et qu'il ne poursuivra pas l'accusé Puigdemont pour rébellion en plus de l'accusation de corruption».
Les juges ont aussi rejeté les arguments de l'indépendantiste catalan qui estimait être victime de poursuites politiques et que dès lors son extradition devait être interdite. «Il est aberrant de porter (une telle accusation) contre l'Etat espagnol, membre de la communauté de valeur et de l'espace juridique de l'Union européenne», estime le tribunal.
Poursuivi pour rébellion et détournements de fonds en Espagne en raison du référendum d'indépendance catalan organisé à l'automne 2017, Carles Puigdemont s'était réfugié en Belgique après sa destitution de la présidence catalane par Madrid et de là voyageait pour tenter d'internationaliser son combat. Il avait été interpellé fin mars dans le nord de l'Allemagne. Il revenait d'un déplacement en Finlande, en voiture, en route pour la Belgique.
(afp/nxp)
https://www.lematin.ch/monde/allemagne-autorise-remise-madrid-puigdemont/story/31374704
Passassation de merde entre dictatures.
SupprimerLes émissions de gaz carbonique les plus basses en sept décennies dans l'Amérique de Trump
RépondreSupprimerAnthony Watts
12 juillet 2018
"Nous soupçonnons que vous n'en entendrez pas trop parler des médias traditionnels libéraux, ou du mouvement écologiste, ou même d'Al Gore", affirme zerohedge.com. "Mais, selon le dernier rapport sur l'énergie de l'Energy Information Administration (EIA), sous le président Trump, les émissions de gaz carbonique par habitant sont maintenant les plus bas qu'ils ont été en près de sept décennies."
Encore plus intéressant est le fait que les émissions de carbone des États-Unis ont chuté tandis que les émissions de la consommation d'énergie pour le reste du monde ont augmenté de 1,6 %, après une croissance faible ou nulle pour les trois années de 2014 à 2016.
https://www.zerohedge.com/news/2018-07-08/co2-emissions-hit-67-year-low-trumps-america-rest-world-rises
Les États-Unis ont émis 15,6 tonnes métriques de gaz carbonique par personne en 1950. Après avoir augmenté pendant des décennies, il a diminué ces dernières années pour atteindre 15,8 tonnes métriques par personne en 2017, les niveaux les plus bas mesurés en 67 ans.
https://wattsupwiththat.com/2018/07/12/co2-emissions-lowest-in-seven-decades-in-trumps-america/
Explications: Notre planète tourne vers l'Est (où est le soleil), l'Europe laisse donc son atmosphère à l'océan Atlantique où le phytoplancton absorbe totalement le gaz carbonique au ras des vagues. Donc, quelques heures plus tard apparait l'Amérique. Les USA (entr'autres) sont envahi par cette atmosphère océanique et diffère donc ses productions de gaz carbonique inoffensif vers la Californie via Texas. Idem pour les États de l'Ouest qui laissent à l'océan Pacifique ses gaz bienfaiteurs (le gaz carbonique est transformé en nano-particules de carbone (charbon) et qui se déposent au fond des océans ou est absorbé par les poissons) qui seront absorbés par le phytoplancton Pacifique, etc, etc.
SupprimerLe gaz carbonique se recycle indéfiniment en charbon qui sera brûlé, émettra du gaz carbonique qui deviendra... etc, etc.
LES OGM SONT LA DEPUIS 10 000 ANS !
RépondreSupprimerTémoignage : comment les anti-OGMs mettent en péril la recherche scientifique
La pression des anti-OGM vient mettre en danger la recherche scientifique elle-même. Un jeune chercheur témoigne sur les nombreuses pressions qu’il doit subir sur le sujet, et qui le font renoncer à la recherche sur le sujet.
Par Devang Mehta.
12 JUILLET 2018
Il y a quelques semaines, comme des milliers d’autres scientifiques du monde entier l’ont fait, j’étais face à un public et j’ai soutenu ma thèse de doctorat devant un jury composé de scientifiques chevronnés.
La thèse de doctorat est probablement l’étape la plus importante d’une carrière scientifique. C’est en partie un examen et en partie un rituel – les soutenances de thèses de doctorat aux Pays-Bas, par exemple, comportent un jury en robe et un maître de cérémonie avec une bâton de cérémonie. Dans mon université en Suisse, la tradition veut que les doctorants mettent un chapeau fantaisiste fabriqué par les collègues chercheurs juste au moment où les résultats (espérons-le, une admission) sont annoncés. Mon chapeau présentait (parmi plusieurs allusions à mon addiction pour Twitter) des références à la technologie CRISPR et aux diverses plantes génétiquement modifiées sur lesquelles j’avais travaillé pour mon doctorat.
Voyez-vous, depuis quatre ans, je suis intégré dans un groupe de recherche suisse spécialisé dans la création d’organismes génétiquement modifiés, ou OGM (les scientifiques préfèrent utiliser les termes organismes génétiquement modifiés ou transgéniques plutôt que OGM). Et non, nous ne sommes pas financés par Monsanto, et nos OGM sont en grande partie libres de brevets.
Néanmoins, mon temps dans la recherche sur les OGM et la création de plantes résistantes à des virus a signifié qu’il a fallu faire face aux réactions de manière écrasante négatives que le sujet suscite chez tant de gens. Celles-ci vont des conversations quotidiennes s’arrêtant dans un silence gêné quand le sujet de mon travail est évoqué, aux trolls haineux sur Twitter, et même à la crainte occasionnelle que des contestataires puissent détruire nos recherches. Il n’est donc pas étonnant qu’après avoir terminé mon doctorat, je sois en partie enthousiaste et en partie soulagé de passer à un nouveau laboratoire pour travailler sur des questions plus fondamentales en biologie végétale : comment les plantes font pour contrôler les niveaux d’activité de leurs gènes.
RÉACTIONS ET CRITIQUES
Malheureusement, je ne suis pas le seul. Les premières plantes génétiquement modifiées disponibles sur le marché ont été développées au début des années 1990 dans des laboratoires financés par des fonds publics en Europe et aux États-Unis. Dans les années qui ont suivi, pas moins d’un quart des universités européennes ont arrêté leurs programmes de recherche sur les OGM, certains en raison d’une perte de financement et d’autres parce que les scientifiques ont quitté la sphère des OGM, lassés par les réactions et les critiques.
Ma première expérience de l’intensité des croyances anti-OGM, je l’ai vécue lors d’une table ronde publique sur la brevetabilité des plantes et les OGM organisée par mes collègues. Le panel a été interrompu par un manifestant qui criait que les aliments génétiquement modifiés (GM) étaient responsables de l’autisme des enfants de ses amis américains. Comme les panélistes ont essayé de l’expliquer, il n’y a pas de lien de causalité entre l’autisme et les OGM (ou les vaccins d’ailleurs), et les OGM se sont avérés être parfaitement sûrs pour la consommation humaine. Mais le contestataire a rejeté ces arguments d’un revers de main en faveur de ce qui ne peut qu’être décrit comme une croyance conspirationniste solidement chevillée au corps. Cela a vraiment montré à quel point les efforts des chercheurs en matière de communication scientifique pouvaient être vains.
RépondreSupprimerDes interactions de ce genre – en direct et sur les réseaux sociaux – se produisent tout le temps dans les discussions sur les OGM et les vaccins à travers le monde. Il semble y avoir un groupe de militants mécontents convaincus que certains scientifiques sont prêts à faire du mal à leurs enfants, et rien de ce que nous pouvons dire ne leur fera changer d’avis.
Personnellement, je suis profondément troublé à l’idée que peu importe les mesures que je prends, il y aura toujours des gens qui penseront que mes recherches leur nuiront ; et cela suscite un profond sentiment d’injustice. Injustice parce qu’en tant que chercheurs sur les OGM, nous sommes obligés de faire un gros travail quand il s’agit de défendre la science, ce que nos collègues de la recherche fondamentale n’auront jamais à faire. Par exemple, un de mes meilleurs amis travaille sur un remède contre un trouble rare de la peau. Je suis à peu près certain qu’il n’a jamais eu à répondre à des questions telles que : « Votre recherche va-t-elle être brevetée ? » Ou aux accusations persistantes d’être un vendu à Big-Ag, Big Agriculture.
PAS VENDU À BIG-AG
En dehors de la haine pure vomie par les activistes anti-OGM, oralement et en ligne, je trouve aussi des fautes chez mes collègues scientifiques. Trop souvent, les autres scientifiques ignorent la question des OGM, ou la traitent simplement comme une technologie dont nous pouvons nous passer (nous ne pouvons pas, soit dit en passant, pas si nous voulons nourrir 9 milliards de personnes d’ici 2050). Par exemple, c’est un secret de polichinelle au sein de la communauté scientifique végétale en Europe que les propositions de recherche sur les OGM ont très peu de chances d’obtenir un financement public. Ceci en dépit du fait que plusieurs agences européennes, sociétés scientifiques [il y a deux liens ici] et études financées par des fonds publics ont jugé que les OGM sont parfaitement sûrs et même qu’ils sont un outil précieux pour lutter contre la faim dans le monde.
Un des résultats de cette diabolisation des OGM, même dans le milieu universitaire, est que les chercheurs dans un nouveau domaine de génie génétique appelé biologie synthétique utilisent maintenant le « cas OGM » comme un exemple de mauvaise communication scientifique et tentent d’établir des limites non scientifiques entre la recherche sur les OGM et leur propres recherches, dans l’espoir d’échapper en fin de compte à l’étiquette OGM.
Les scientifiques travaillant avec de nouvelles technologies d’amélioration des plantes font exactement la même chose. Pour tenter d’éviter le label OGM, ils ont commencé à établir, à mon avis, des distinctions absurdes entre différents types de produits du génie génétique tels que les cisgéniques et les OGM/transgéniques (les premiers sont des plantes qui ont été conçues pour contenir des « gènes » de la même espèce ou d’une espèce voisine, alors que les transgéniques contiennent des gènes d’une espèce différente). C’est une distinction scientifiquement dénuée de sens, créée simplement par la peur de l’appellation « OGM ». Avec l’avènement de CRISPR, j’ai remarqué le même phénomène : des scientifiques commercialisent leurs produits CRISPR en déclarant fièrement qu’ils sont « non-OGM », même s’ils savent que les OGM sont parfaitement propres à la culture et à la consommation.
RépondreSupprimerUn autre point qui rend la communication scientifique particulièrement difficile pour les chercheurs en OGM comme moi est l’énorme fossé entre les activistes anti-OGM du monde riche et les agriculteurs et consommateurs du Sud pour lesquels nous déployons notre science. En tant que scientifique indien travaillant en Suisse, je vois cela tout le temps au travail. Comment dois-je expliquer les conséquences de l’abandon d’une technologie qui peut aider à nourrir des millions de gens à des étudiants suisses qui jouissent du niveau de vie le plus élevé au monde ? Je n’ai pas encore trouvé la réponse, et je ne pense pas que je la trouverai un jour.
UNE PROPOSITION DE CARRIÈRE RISQUÉE
Au-delà de la question de l’acceptation du public et, franchement, de la chute de nombreux membres de la communauté scientifique dans les croyances pseudoscientifiques, je suis également heureux de m’éloigner de la recherche transgénique parce que l’activisme anti-OGM des deux dernières décennies a fait d’une carrière dans la recherche sur les OGM une proposition risquée. Le laboratoire où j’ai mené ma recherche de thèse a une histoire riche en science des OGM. C’est dans ce laboratoire suisse (et avec des collaborateurs de l’autre côté de la frontière en Allemagne) que le Riz Doré a été conçu et créé. Le Riz Doré est un riz enrichi en vitamine A développé spécifiquement pour les pays asiatiques où il a le potentiel de soulager le problème de la carence en vitamine A (la principale cause de cécité évitable chez les enfants). Le chercheur à l’origine du projet, Ingo Potrykus, a commencé la recherche en 1991 et a produit les premières plantes de riz doré en 1999 – une réalisation remarquable qui l’a vu honoré par la couverture du magazine Time. (Potrykus a pris sa retraite de mon université cette année-là.) Presque 20 ans plus tard, sa création, une variété végétale qui a passé à plusieurs reprises les tests de sécurité réglementaires, n’est toujours pas disponible pour les enfants qui en ont le plus besoin.
Il y a quelques années, Potrykus (alors âgé de 81 ans) publiait un article dans la revue The Annual Review of Plant Biology, intitulé « Du concept de totipotence aux céréales biofortifiées » ; contrairement à ce que laisse entendre un titre très académique, c’est une autobiographie fascinante d’un chercheur sur les OGM qui a « réussi ». Dans l’article, Potrykus présente un compte rendu de première main de la lente évolution de l’enthousiasme initial pour la création de grains de riz contenant de la vitamine A vers une histoire de déceptions répétées. Il raconte sa joie d’avoir pu présenter ses étonnantes découvertes lors de son séminaire de départ à la retraite à mon université, puis la lente décélération du projet confronté à l’opposition publique ; la presse négative enrênée par des activistes anti-OGM ; les blocages réglementaires qui ont ralenti l’adoption de la technologie sous forme de variétés de riz utilisées par les agriculteurs asiatiques ; la réticence des institutions publiques à faire face à l’opposition militante ; et un manque de financement pour diverses expériences – l’histoire de 20 ans de Riz Doré est celle d’un désespoir continu.
RépondreSupprimerNéanmoins, le projet Riz Doré (et ses succès plus récents) a inspiré plusieurs autres scientifiques européens et les a incités à initier des recherches financées publiquement sur les OGM pour un objectif non commercial. Parmi eux figurent mes superviseurs de doctorat, qui ont jalonné une grande partie de leur carrière avec la recherche sur les OGM.
Cependant, pour moi, l’autobiographie de Potrykus se lit comme un récit édifiant pour un jeune scientifique. Je ne trouve tout simplement pas le genre d’optimisme déraisonnable – que l’on épice avec une cuillerée de fatalisme – que réclame la recherche sur les OGM dans le climat actuel de l’opinion publique. Potrykus lui-même le dit le mieux en réfléchissant à l’histoire du Riz doré : « Bien que des progrès soient faits lentement, si j’avais su ce que cette poursuite impliquerait, peut-être que je n’aurais pas commencé. J’espère que le Riz Doré atteindra les nécessiteux de mon vivant. »
J’ai passé quatre années et demie très enrichissantes dans le domaine de la recherche sur les OGM. Ma recherche m’a donné l’occasion de visiter des petites fermes dans deux pays africains, d’enseigner à une étudiante du Sud le genre de techniques biologiques modernes qui restent un rêve pour beaucoup dans son pays, et de faire des découvertes qui pourraient apporter une réponse à un important problème de sécurité alimentaire dans les tropiques. En conséquence, oui, je ressens une certaine culpabilité à l’idée de quitter ce domaine de recherche, et de quitter la quête de mon laboratoire pour concevoir de meilleures variétés de manioc pour les agriculteurs de l’Afrique et de l’Asie du Sud à mi-parcours du projet.
Dans l’ensemble, cependant, je suis un peu égoïste, heureux de passer à un domaine de recherche qui n’entraîne pas les mêmes défis de relations publiques et le même degré de suspicion implacable. Mais vous ne savez jamais – peut-être que le monde développé peut encore donner à la technologie OGM développée sur fonds publics la chance qu’elle mérite d’avoir pour nourrir nos semblables, et je peux encore revenir au bercail.
_______________
* Devang Mehta est un spécialiste de la biologie de synthèse et des plantes qui écrit. Cet article a été publié en premier lieu sur Massive Science Inc.
Source : https://allianceforscience.cornell.edu/blog/2018/05/perils-gmo-research-scientist-speaks/
https://www.contrepoints.org/2018/07/12/320116-temoignage-comment-les-anti-ogms-mettent-en-peril-la-recherche-scientifique
OGM, Gilles-Éric Séralini, trois études d'envergure et les médias : les « mute news »
RépondreSupprimer12 Juillet 2018
par Seppi
Vous avez sans doute une zapette avec une touche « mute ». Les « mute news » sont celles qui ne parviennent pas au public…
La marmite aura mis du temps à bouillir, mais c'est finalement arrivé... pour se refroidir presque aussitôt.
Reprenons les prémisses en pas très bref... car c'est une longue histoire
Le 19 septembre 2012, l'Obs publie une série d'articles sur ce qui est devenu la fameuse et infâme expérience sur des rats de Gilles-Éric Séralini et al. En couverture, outrageusement putassière : « Oui, les OGM sont des poisons ». Et outrageusement insensée. Car, à supposer que l'équipe de M. Séralini ait mis un danger mortel en évidence, cela n'aurait valu que pour l'OGM étudié, le maïs NK603 tolérant le glyphosate.
L'article « scientifique » paru dans Food & Chemical Toxicology, « Long term toxicity of a Roundup herbicide and a Roundup-tolerant genetically modified maize » (toxicité à long terme d'un herbicide Roundup et d'un maïs génétiquement modifié tolérant le Roundup) est paru le même jour. C'est le coup d'envoi d'une formidable opération de communication et d'activisme.
Mais dès le lendemain, le Figaro rapportait dans « L'étude sur les OGM fortement contestée » un propos du toxicologue Gérard Pascal « Cela ne vaut pas un clou ». Propos lapidaire qui résume bien une extraordinaire levée de boucliers dans la communauté scientifique (évidemment à l'exception notable des milieux de l'alterscience militante anti-OGM et anti-pesticides). Les milieux journalistiques ainsi que ceux de l'éthique de l'expérimentation animale se sont aussi insurgés, les uns à propos des conditions de l'embargo avant publication, et les autres des souffrances animales.
L'indigence de cette étude s'illustre aussi par le fait que les six académies scientifiques de France (d'Agriculture, de Médecine, de Pharmacie, des Sciences, des Technologies, et Vétérinaire) ont publié un avis commun – une première dans les annales – fort critique. Par exemple :
« L’orchestration de la notoriété d’un scientifique ou d’une équipe constitue une faute grave lorsqu’elle concourt à répandre auprès du grand public des peurs ne reposant sur aucune conclusion établie. Tout chercheur peut se considérer comme un lanceur d’alerte, encore fautil que les hypothèses formulées ne soient pas, en l’absence de résultats validés et confirmés, présentées ou perçues comme des commencements de preuve suffisants pour faire appel au principe de précaution. Il est donc essentiel que tout chercheur soit attentif aux conséquences potentiellement graves de propos excessifs. »
Conclusion de « OGM, vers une alerte mondiale ? », un « documentaire » diffusé par France 5 pour la première fois le mardi 16 octobre 2012.
Lorsqu'une expérience, censée menée dans le plus grand secret, fait l'objet d'un suivi cinématographique, lequel – de l'expérience ou du « documentaire » – est le vrai support de l'autre ?
L'article fut finalement rétracté en novembre 2013 – l'altermonde affirme mordicus que ce fut un complot de Monsanto – et republié le 24 juin 2014 (après un autre curieux embargo) avec des modifications essentiellement cosmétiques, sans nouvel examen de fond par les pairs, dans une revue qui constitue un repaire pour l'alterscience « environnementaliste » et anti-OGM. Il eut un curieux article compagnon, « Conflicts of interests, confidentiality and censorship in health risk assessment: the example of an herbicide and a GMO » (conflits d'intérêts, confidentialité et censure dans l'évaluation sanitaire : l'exemple d'un herbicide et d'un OGM) – curieux car il n'a guère sa place dans une revue scientifique (mais tout fout le camp... même chez Nature).
RépondreSupprimerCurieux aussi car, question conflits d'intérêts, l'équipe Séralini avait été largement financée par le biobusiness ainsi que Carrefour et Auchan dans le cadre d'un montage qui devait faire écran entre l'équipe et les bailleurs de fonds. M. Séralini s'en est du reste vanté dans l'Obs et dans son « Tous Cobayes ».
Un montage financier ad hoc
Nous avons cependant dû sortir de ce cadre pour organiser le montage financier nécessaire à l’expérience. Pour éviter tout rapprochement disqualifiant avec les méthodes des industriels, il fallait un cloisonnement net entre les scientifiques, qui menaient cette expérience dans le respect d’une éthique de l’indépendance et de l’objectivité, et les associations qui la subventionnaient.
L’association Fontaine, regroupement pour des formations de management, avait permis de recruter plusieurs dizaines de donateurs qui se sont eux-mêmes regroupés sous le nom de CERES (1). Cette autre association, créée par Jacques Dublancq sous l’impulsion de Gérard Mulliez, a débloqué une première somme d’environ 500.000 euros qui nous a permis de mettre en route les premières phases de l’expérience.
Il n’était toutefois pas concevable qu’elle soit le commanditaire direct de l’étude. Nous ne pouvions nous exposer à apparaître aux yeux de nos détracteurs comme des scientifiques financés directement par le lobby de la grande distribution – d’une façon symétrique aux experts influencés par celui de l’agro-alimentaire. Et cela même si de nombreux autres métiers étaient représentés dans le Céres.
Une instrumentalisation politique immédiate...
Il n'y a pas que la notoriété d'un scientifique qui fut orchestrée, mais aussi, sans doute, la réaction politique. Dans Slate, « Affaire Séralini: six ans après, l'heure des comptes » M. Jean-Yves Naud rappelle que la réaction du gouvernement français (M. Stéphane Le Foll, Mme Marisol Touraine et Mme Delphine Batho) – que nous qualifierons d'hystérique – est tombée dans l'heure suivant la sortie du Nouvel Observateur :
« Le gouvernement a pris connaissance des informations, rendues publiques aujourd'hui, sur l'étude menée par des chercheurs français, mettant en cause l'innocuité à long terme du maïs transgénique NK 603 sur les rats. Les conclusions de cette étude font l'objet d'une saisine immédiate de l'Agence nationale de sécurité sanitaire (ANSES). Elles feront également l’objet d’une analyse par le Haut conseil des biotechnologies. Elles seront également transmises en urgence à l'Autorité européenne de sécurité des aliments. [...] »
Tant le HCB que l'ANSES recommandèrent des actions pour avoir le cœur net – on pourra lire à cet égard, sur Slate, « OGM: l'expérience de Gilles-Eric Séralini est nulle mais pleine d’avenir ».
...débouchant sur trois études de grande envergure...
Cela déboucha sur l'organisation de trois études de grande envergure, GMO90+ en France et GRACE (GMO Risk Assessment and Communication of Evidence – évaluation des risques des OGM et communication des preuves) et G-TwYST (Genetically modified plants Two Year Safety Testing – examen de la sécurité des plantes génétiquement modifiées d'une durée de deux ans) au plan européen. Le coût cumulé a été estimé à quelque 15 millions d'euros.
RépondreSupprimer...et un boycott
Le projet français incluait une instance de concertation... dont le CRIIGEN s'est retiré dès le départ pour des motifs – « OGM : Monsanto invité à s'auto-évaluer avec 3 millions d'argent public » – dont nous laisserons les lecteurs juges. Rappelons que ces gens ont constitué une cagnotte – en faisant appel au financement participatif (défiscalisé...) – pour défendre l'honneur scientifique – oups ! « une recherche indépendante de qualité » – au prétoire...
D'autres – Inf’OGM, Greenpeace et la Confédération Paysanne se sont également retirés. Déclaration commune de ces deux derniers (mais le même argument a été évoqué par Inf'OGM :
« Par ailleurs, le porte-parole français de la société Monsanto étant invité à participer à cette instance qui doit se prononcer sur son propre OGM, nous ne pouvons tolérer un conflit d’intérêts aussi direct. Enfin, nous déplorons le déséquilibre entre les différentes parties prenantes dans la constitution de cette instance : les autres parties prenantes économiques invitées sont toutes des sociétés semencières productrices d’OGM, et aucun représentant de la distribution n’est invité. Un tel déséquilibre dans le choix des participants interdit à l’avance tout travail serein. La Confédération paysanne et Greenpeace refusent donc de cautionner par leur présence ce qui semble être un simulacre de consultation de la société civile et attendent de l’Anses qu’elle revoie au plus vite les missions et la composition de cette instance. »
L'intolérance aux producteurs d'OGM tolérant le glyphosate (et d'autres « événements ») est décidément sans limite. Et il s'agissait sans nul doute aussi de se dissocier de travaux dont les résultats escomptés étaient prévisibles.
Des résultats prévisibles
Ces résultats sont tombés au printemps de cette année. En bref : RAS.
Faut-il rappeler que les OGM en question – tolérant le glyphosate ou comportant un gène Bt – sont maintenant cultivés depuis plus de 30 ans et qu'ils entrent dans l'alimentation du bétail – plus de 100 milliards de têtes depuis 1993 – sans qu'on ait remarqué d'effets négatifs. C'est aussi la conclusion, notamment, de la revue de la littérature scientifique sur les essais à long terme et multigénérationnels de Snell et al. (non, l'étude de Séralini et al. n'a pas été la première...
Et, comme nous l'avons vu plus haut, cette dernière étude ne valait pas un clou...
Les trois études produisirent donc des résultats qui, sans infirmer formellement les conclusions de l'étude Séralini, ne les corroborent pas.
Un silence médiatique quasi général
Ces résultats ont été accueillis par une indifférence médiatique générale. « Oui, les OGM sont des poisons » était une « information » en septembre 2012. « Non, les OGM ne sont pas des poisons » – ou un titre du même tonneau, mais épistémologiquement correcte –, ce n'est pas une information.
L'Association Française des Biotechnologies Végétales (AFBV) s'est employée sans réel succès à remuer le marigot médiatique. Il y eut un dossier de presse le 1er juin 2018. Cela a produit un article de la France Agricole, « L’étude de Séralini sur les maïs OGM invalidée », du 1er juin 2018, et de Contrepoints, « 3 expertises supplémentaires contredisent Séralini sur la nocivité des OGM », du 4 juin 2018. Rien du côté des médias généralistes... en particulier de ceux qui se sont précipités en septembre 2012.
RépondreSupprimerL'AFBV publie le 11 juin 2018 un communiqué de presse, « Trois expertises française et européennes invalident les résultats et conclusions de l’étude de GE Séralini sur les maïs OGM » :
« 1- Les résultats de ces programmes de recherche confirment l’absence d’effets sur la santé des maïs porteurs de MON 810 et NK 603 dans les études à 90 jours. Cette absence d’effets avait déjà été observée dans les études antérieures et prises en compte dans les évaluations faites par l’EFSA.
2)- Les études à long terme (un an et deux ans), ne mettent en évidence aucun effet toxique des maïs analysés et n’apportent rien de plus que les études à 90 jours, comme l’avaient prévu les toxicologues.
Ainsi, l’AFBV constate que ces nouvelles études réfutent les principales conclusions tirées des études de GE Séralini sur la toxicité des maïs « OGM » analysés : aucun risque potentiel n’a été identifié. En outre, elles contredisent ses propositions sur la nécessité de réaliser les études long terme.
Pour l’AFBV, il est donc important que les consommateurs européens soient maintenant informés des résultats de ces études qui devraient les rassurer sur la qualité pour leur santé des plantes génétiquement modifiées autorisées à la commercialisation et sur la procédure d’évaluation européenne, déjà la plus rigoureuse du monde. »
Cent cinquante journalistes et 200 parlementaires contactés... aucune reprise !
Challenges titre le 14 juin 2018 : « Les défenseurs des OGM expérimentent les "mute news" »... « Même l'AFP n'a pas voulu passer une ligne », déplore M. Gil Kressman, porte-parole de l'AFBV. Il devait pourtant savoir : l'AFP est loin d'être une agence d'information sur les questions d'OGM et de pesticides.
Le CRIIGEN réplique
L'AFBV ? Vu le contentieux passé, le CRIIGEN ne pouvait que répliquer. C'est « Etude "Séralini 2012" : Comparer ce qui est comparable ! 4 juin 2018 ». Le ton est peu amène, la mise en cause des « lobbies » fuse et le tocsin est sonné en conclusion :
« Certains détracteurs de l’étude "Séralini 2012" continuent avec acharnement à discréditer cette étude. Ils oublient avec une mauvaise foi patente de : "Comparer ce qui est comparable" !
En effet, les résultats des études GRACE, G-TwYST et OGM90+ ne remettent pas en cause les résultats de l’étude "Séralini 2012" car les protocoles et les objectifs sont trop différents.
[…]
Une fois de plus les lobbys tentent de détourner le débat face aux risques graves sur la santé publique de produits qui contaminent régulièrement nos écosystèmes et notre alimentation et que l’on retrouve dans le sang et les urines de la population mondiale. »
Mais cela n'en touche pas une, ni ne remue l'autre.
RépondreSupprimerUn coup de gueule de MM. Gérard Kafadaroff et Philippe Joudrier
Il y a deux titres – explicites – sur Atlantico : en gros caractères, « OGM poisons… ou sans impact pour la santé ? L’étrange silence médiatique réservé aux 3 contre-expertises réalisées sur les pauvres rats du Professeur Séralini » ; en plus petit (hélas), « Du tsunami médiatique en 2012 à l'omerta en 2018 ».
C'était pour le compte du Collectif Science-Technologies-Actions. Extrait :
« Les résultats viennent d’être publiés. Sans surprise ils réfutent les principales conclusions de l’étude Séralini : aucun effet toxique sur les rats de laboratoire nourris avec du maïs GM Mon 810 et NK 603 (traité ou pas avec du Roundup®, formulation glyphosate de Monsanto), que ce soit pendant 90 jours ou pendant un à deux ans.
Confirmant les avis des toxicologues, les études à long terme réclamées par les lobbies écologistes n’apportent aucun élément supplémentaire par rapport aux études classiques pendant 90 jours.
Etonnamment, cette information majeure et positive n’intéresse plus les médias, même ceux qui s’étaient déchaînés en 2012 contre le maïs génétiquement modifié et le glyphosate.
Tsunami médiatique en 2012, silence ou omerta en 2018 : un traitement de l’information inquiétant ! »
Enfin...
C'est finalement le Figaro qui relève le flambeau le 3 juillet 2018, avec trois articles :
« Lien entre OGM et cancer : l'étude était fausse », de Mme Cécile Thibert ;
« OGM : une manipulation scientifico-médiatique soigneusement préparée », de M. Cyrille Vanlerberghe ;
« OGM : "Les images ont eu plus d'impact que les résultats de l'expérience" »
Le lendemain, M. Patrick Cohen a interrogé le Prof. Bernard Salles, auteur principal d'OGM90, dans « OGM et tumeurs : "On ne peut pas dire que manger du maïs modifié provoque des cancers chez le rat" ». Des propos prudents, mais suffisants.
La réponse du CRIIGEN a été brève... et menaçante :
« Suite à l’article paru le 3 juillet sur le site du figaro.fr et intitulé "Lien entre OGM et cancer : l'étude était fausse", nous insistons sur le contenu du communiqué de presse du CRIIGEN du 04/06/2018, qui soulignait que les études GRACE, G-TwYST et OGM90+ ne sont pas de nature à infirmer et à confirmer les résultats de l'étude "Séralini" car les protocoles et les objectifs sont différents !
Il est également utile de préciser que l’étude du professeur G.E. Séralini et al ne visait en aucune manière à faire le lien entre OGM et cancer et que le titre de l’article de Cécile Thibert est fallacieux à cet égard.
Par ailleurs, les termes de l’article intitulé "OGM : une manipulation scientifico-médiatique soigneusement préparée" de Cyrille Vanlerberghe sont diffamatoires et inacceptables. Nous vous rappelons l’arrêt définitif de la Cour d’Appel de Paris du 06/11/2015 qui a condamné le journaliste Jean-Claude Jaillette et le journal Marianne pour des propos similaires à l’encontre du Pr. Séralini. »
http://seppi.over-blog.com/2018/07/ogm-gilles-eric-seralini-trois-etudes-d-envergure-et-les-medias-les-mute-news.html
LA HONTE DE LA FRANCE
RépondreSupprimerÉolien offshore: les 15 milliards d’économie d’Emmanuel Macron sont du vent
L’annonce du Président Macron de 15 milliards d’euros d’économie sur les éoliennes en mer n’est qu’une supercherie supplémentaire de communication.
Par Jean-Louis Butré et Arnaud Casalis1.
11 JUILLET 2018
Le 20 juin 2018 le président Macron et le ministre Nicolas Hulot ont annoncé à grand renfort de médiatisation une économie de 15 Md€ sur le coût d’installation des éoliennes en mer. À un moment où le gouvernement proclame vouloir boucler son budget en réalisant d’importantes économies budgétaires de l’État, une telle annonce est évidemment flatteuse. Elle résiste toutefois difficilement à la réalité des faits.
De quoi parle-t-on réellement dans ces projets d’éoliennes en mer ? Un bref retour en arrière s’impose pour rappeler que les gouvernements précédents ont décidé de donner corps à la transition énergétique de façon idéologique, sans la moindre analyse du potentiel des ressources ni de leur faisabilité économique. Dans le plus grand désordre et en l’absence de réflexion sur ce que devrait être l’intérêt général, ils se sont lancés dans des politiques opportunistes sous la pression immédiate de groupes de pression alliant spéculateurs et prétendus écologistes.
POUR MASQUER LE FIASCO DE L’ÉOLIEN TERRESTRE LE GOUVERNEMENT LANCE L’ÉOLIEN OFFSHORE ENCORE PLUS COÛTEUX
Les subventions aux éoliennes terrestres assurant une rentabilité incomparable à tout autre investissement, aux frais du contribuable, il a fallu corriger une image promise à être désastreuse lorsqu’il a commencé à être public le fait que le secteur éolien ne créerait pas d’emploi en France (les machines sont toutes importées) et que cette énergie intermittente serait à l’origine d’un prochain triplement du prix de l’électricité pour le consommateur.
L’idée fut donc vite vendue, par quelques industriels, de créer une filière d’énergie éolienne dite « marine » (en réalité littorale) permettant de tenir un discours franco-français sur la création d’emplois compatible avec le discours politique ambiant. On sait quelle fut la suite, avec l’arrêt ou la cession des projets (Siemens, General Electric) dans des conditions de décisions encore mal élucidées.
ÉLECTRICITÉ OFFSHORE PLUS DE 7 FOIS LE PRIX NORMAL
C’est dans ces circonstances que furent hâtivement lancés des appels à projets d’éolien marin, sans étude préalable autre que celles des promoteurs les portant dans leurs cartons, assorties d’exigences de rémunération sans précédent.
Alors qu’EDF est tenu de vendre à ses concurrents 25% de sa production d’électricité à 49 € le MWh dans les conditions imposées par la loi Nome, et que les éoliennes terrestres lui vendaient déjà la leur au double de ce prix, le premier projet de Veulette proposait un prix d’achat imposé à EDF de 110 € le MWh.
Profitant d’une volonté politique défaillante et de la légèreté de Mme Ségolène Royal, les projets suivants ont ensuite vu leurs offres acceptées à des prix exorbitants atteignant jusqu’à 230 € le MWh. Il n’est pas non plus inutile de comparer ce prix à celui du marché spot de l’électricité qui oscille souvent aux alentours de 30 € le MWh et qui est même quelquefois négatif lorsqu’il faut délester le réseau allemand de la surproduction erratique de ses propres éoliennes.
LA HONTE DE LA FRANCE
RépondreSupprimerÉolien offshore: les 15 milliards d’économie d’Emmanuel Macron sont du vent
L’annonce du Président Macron de 15 milliards d’euros d’économie sur les éoliennes en mer n’est qu’une supercherie supplémentaire de communication.
Par Jean-Louis Butré et Arnaud Casalis1.
11 JUILLET 2018
Le 20 juin 2018 le président Macron et le ministre Nicolas Hulot ont annoncé à grand renfort de médiatisation une économie de 15 Md€ sur le coût d’installation des éoliennes en mer. À un moment où le gouvernement proclame vouloir boucler son budget en réalisant d’importantes économies budgétaires de l’État, une telle annonce est évidemment flatteuse. Elle résiste toutefois difficilement à la réalité des faits.
De quoi parle-t-on réellement dans ces projets d’éoliennes en mer ? Un bref retour en arrière s’impose pour rappeler que les gouvernements précédents ont décidé de donner corps à la transition énergétique de façon idéologique, sans la moindre analyse du potentiel des ressources ni de leur faisabilité économique. Dans le plus grand désordre et en l’absence de réflexion sur ce que devrait être l’intérêt général, ils se sont lancés dans des politiques opportunistes sous la pression immédiate de groupes de pression alliant spéculateurs et prétendus écologistes.
POUR MASQUER LE FIASCO DE L’ÉOLIEN TERRESTRE LE GOUVERNEMENT LANCE L’ÉOLIEN OFFSHORE ENCORE PLUS COÛTEUX
Les subventions aux éoliennes terrestres assurant une rentabilité incomparable à tout autre investissement, aux frais du contribuable, il a fallu corriger une image promise à être désastreuse lorsqu’il a commencé à être public le fait que le secteur éolien ne créerait pas d’emploi en France (les machines sont toutes importées) et que cette énergie intermittente serait à l’origine d’un prochain triplement du prix de l’électricité pour le consommateur.
L’idée fut donc vite vendue, par quelques industriels, de créer une filière d’énergie éolienne dite « marine » (en réalité littorale) permettant de tenir un discours franco-français sur la création d’emplois compatible avec le discours politique ambiant. On sait quelle fut la suite, avec l’arrêt ou la cession des projets (Siemens, General Electric) dans des conditions de décisions encore mal élucidées.
ÉLECTRICITÉ OFFSHORE PLUS DE 7 FOIS LE PRIX NORMAL
C’est dans ces circonstances que furent hâtivement lancés des appels à projets d’éolien marin, sans étude préalable autre que celles des promoteurs les portant dans leurs cartons, assorties d’exigences de rémunération sans précédent.
Alors qu’EDF est tenu de vendre à ses concurrents 25% de sa production d’électricité à 49 € le MWh dans les conditions imposées par la loi Nome, et que les éoliennes terrestres lui vendaient déjà la leur au double de ce prix, le premier projet de Veulette proposait un prix d’achat imposé à EDF de 110 € le MWh.
Profitant d’une volonté politique défaillante et de la légèreté de Mme Ségolène Royal, les projets suivants ont ensuite vu leurs offres acceptées à des prix exorbitants atteignant jusqu’à 230 € le MWh. Il n’est pas non plus inutile de comparer ce prix à celui du marché spot de l’électricité qui oscille souvent aux alentours de 30 € le MWh et qui est même quelquefois négatif lorsqu’il faut délester le réseau allemand de la surproduction erratique de ses propres éoliennes.
De plus, les répercussions sur cette action risquent d’être plus lourdes encore. En effet, les bateaux de pêche les plus conséquents pourront se rendre sur d’autres secteurs, mais cela aurait pour conséquence de les dérouter vers d’autres ports pour décharger leur pêche et s’approvisionner. L’activité de la CAPA (Coopérative des Artisans Pêcheurs Associés) qui commercialise le carburant et la glace s’en trouverait impactée.
RépondreSupprimerJ’en appelle donc à vous, Monsieur le Préfet, pour mettre bon ordre dans cette situation et faire en sorte que les droits des professionnels de la mer ne soient plus bafoués.
Recevez, Monsieur le Préfet, l’expression de mes salutations distinguées.
Laurent JACQUES
Maire du Tréport
Jean-Louis Bultré est l’auteur de Éolien, une catastrophe silencieuse, paru aux éditions de l’Artilleur en 2017.
Jean-Louis Bultré est président et Arnaud Casalis est administrateur de la Fédération Environnement Durable.
https://www.contrepoints.org/2018/07/11/320057-eolien-offshore-les-15-milliards-deconomie-demmanuel-macron-sont-du-vent
Après des milliards d'oiseaux et d'abeilles tué chaque jour sur terre, voici les 'éoliennes-en-mer' qui massacrent des milliards de mouettes, sternes, albatros, goélands et autres hirondelles de mer !!! pour le plaisir le la nazional socialiste !
SupprimerCameroun : crise alimentaire ou crise de gouvernance ?
RépondreSupprimerLe problème de crise alimentaire dans le septentrion au Cameroun est moins le fait de la nature que la conséquence d’une gouvernance qui manque d’anticipation et qui n’investit pas dans l’innovation.
Par Louis-Marie Kakdeu.
JUILLET 2018
Un article de Libre Afrique
Selon le Programme Alimentaire Mondial (PAM) dans son rapport de mai 2018, 36,7% de la population globale des régions septentrionales du Cameroun sont confrontés à l’insécurité alimentaire. La seule région de l’Extrême-Nord représente 75% des enfants en retard de croissance.
Selon le discours officiel, la région est frappée depuis 2014 par la crise terroriste de Boko Haram qui contraint les populations à abandonner les zones rurales où se font l’essentiel des cultures. Aussi, la même région n’aurait connu respectivement entre 2015 et 2017 que 43, 42 et 39 jours de pluie, exposant les cultures à la sécheresse et aux ravageurs. Une superficie totale de 9623 hectares aurait été infestée par les ravageurs en 2017. Les dirigeants peuvent-ils se cacher derrière ces «alibis» ?
LA RESPONSABILITÉ DU GOUVERNEMENT ENGAGÉE
Nul ne peut méconnaître l’impact de l’insécurité et de la météorologie sur la crise alimentaire dans le septentrion. Mais le gouvernement a sa part de responsabilité en matière de gouvernance. La région de l’Extrême-Nord qui était la plus peuplée du Cameroun (3,9 millions d’habitants en 2015) est encore la plus pauvre, la plus sous-scolarisée, la plus enclavée.
Par exemple, en 2017 on ne note que 3943 établissements scolaires et un ratio de 15 enseignants par établissement contre 9923 établissements et un ratio de 45 enseignants par établissement dans la région du Centre. C’est un problème de planification et de programmation des politiques publiques. Ce faisant, les gouvernements successifs ont fait de la région un terreau fertile pour le terrorisme et autre forme de vandalisme.
De plus, la progression de la sécheresse est aussi le fait de la corruption des agents des eaux et forêts et des détournements de deniers publics affectés à la région. Par exemple, ce sont des agents corrompus qui autorisent la déforestation des zones déjà désertiques par des spéculateurs qui plombent le marché du bois de chauffage dans la région. Un tel comportement des agents publics ne pouvait qu’affecter la sécurité alimentaire.
Par ailleurs, chaque année, le gouvernement camerounais se contente de réagir aux crises qui se pointent à l’horizon et d’espérer que la «nature sera clémente». Dans la politique budgétaire, la guerre contre Boko Haram est privilégiée au développement pourtant, le terrorisme se nourrit du mercenariat c’est-à-dire de la propension des jeunes oisifs à vendre des services violents au plus offrant pour survivre.
Par exemple, au titre du budget d’investissement public (BIP), l’État n’a consacré depuis 2016 que moins de 3% de son budget à l’Extrême-Nord, passant de 31 à 36 milliards en 2018 pourtant, c’est la région où le taux de pauvreté a le plus évolué dans le pays, passant de 56,3% en 2001 à 74,3% en 2014.
LA PASSIVITÉ DU GOUVERNEMENT : DES SOLUTIONS TECHNOLOGIQUES NON EXPLORÉES
RépondreSupprimerUn manque d’investissement dans l’innovation conduit à l’accentuation de la crise. Les problèmes auraient pu être transformés en opportunités avec un peu plus de créativité. On ne peut pas privilégier le chauffage au bois dans une région où il fait très souvent entre 35 et 45°C.
Paradoxalement, le chauffage solaire qui est l’un des plus vieux modes de chauffage au monde reste méconnu dans cette région. Pourtant, cela résoudrait les problèmes de cuisson, de séchage, d’électricité, etc. Aussi, l’investissement dans la rétention et le drainage de l’eau dans les bassins de production est une solution incontournable pour pallier durablement le problème de manque d’eau.
Il s’agirait simplement d’un barrage accompagné des canaux primaires. Et ce ne sont pas des exemples qui manquent ! En 1978, le barrage du lac de Maga (25 km de long) et la digue de Logone avaient été construits avec succès en vue d’irriguer un bassin de production de riz. Depuis, aucun autre investissement identique n’a été consenti à la région. Par ailleurs, il est incompréhensible de comprendre pourquoi le pays est surpris par la météo dans un contexte où des solutions technologiques existent pour avoir des prévisions plus précises.
Par exemple, le dispositif CATCOS (Capacity Building and Twinning for Climate Observing Systems) a permis entre 2011 et 2016 de donner les moyens à dix pays d’Afrique, d’Amérique du Sud, d’Asie centrale et d’Asie du Sud-Est de prendre des mesures adéquates suite à la surveillance de CO2 et d’aérosols. Aussi, l’Israël, un pays désertique qui développe l’une des agricultures les plus innovantes du monde assure la maîtrise des pics de chaleur, de la salinité et du manque d’eau grâce à l’imagerie satellitaire.
La même technologie permet aujourd’hui de proposer de meilleures solutions d’assurances-récolte comme en Inde où en juillet 2017, après une sécheresse, 203 000 petits riziculteurs-trices de l’État du Tamil Nadu, avaient perçu des indemnités allouées dans le cadre du programme national d’assurance-récolte.
UN MANQUE DE VOLONTÉ POLITIQUE
En 2018, il n’existe aucun obstacle juridique et économique à l’investissement dans le septentrion au regard des possibilités contenues dans le nouveau code des investissements de 2013. Le problème se situe au niveau politique. Le partenariat public-privé reste une piste intéressante. Cela commencerait par l’externalisation de la production des semences améliorées.
Par exemple en 2017, les semences ont été distribuées dans l’Extrême-Nord par le MINADER, la FAO et quelques ONGs agissant sur le terrain. Selon le rapport 2017 du MINADER, le bilan de la distribution céréalière était de 4031 tonnes pour un besoin évalué à 911059 tonnes, ce qui est insolite.
L’État ne peut plus être l’investisseur principal. Il faudrait veiller à la liberté économique dans la région. En l’état, un groupe de commerçants et barons politiques se manifeste par des comportements de dumping et cartelisme. En période de récolte, ils créent des pénuries artificielles afin de revendre plus cher. Un tel comportement est anticoncurrentiel et contraire aux règles du marché.
En somme, le problème de crise alimentaire dans le septentrion au Cameroun est moins le fait de la nature que la conséquence d’une gouvernance qui manque d’anticipation et de planification et qui n’investit pas dans l’innovation.
https://www.contrepoints.org/2018/07/11/320042-cameroun-crise-alimentaire-ou-crise-de-gouvernance
Depuis la disparition tragique du chef Kadhafi, l'Afrique se meurt, s'abandonne à ses singeries et fait régner la dictature pour faire vivre une poignée de dictateurs.
SupprimerStar du poker, avocat ou consultant : comment les députés européens arrondissent leurs fins de mois
RépondreSupprimer11 JUILLET 2018
Audrey Duperron
31% des 751 eurodéputés élus en 2014 qui ont eu des activités rémunérées en dehors de leur mandat ont gagné 41 millions d'euros, montre une étude de Transparency International.
L’ONG, qui se surnomme elle-même la “coalition anti-corruption”, a épluché près de 2000 “déclarations d’intérêt”, et publié une liste de 1 366 activités secondaires déclarées par les députés depuis leur prise de fonction en 2014.
Star de poker, avocat, ou administrateur
Son analyse révèle que le champion des revenus annexes est l’Italien Renato Soru, qui a perçu plus de 1,5 million d’euros au titre de son poste de directeur de Tiscali, un fournisseur d’accès à Internet. Il est suivi de l'eurodéputé lituanien Antanas Guoga, qui est aussi une star du poker mondial. Il a ratissé au moins 1,35 M € provenant de ses gains aux tables de jeu et de ses activités d’entrepreneur. Il est notamment membre du conseil d’administration et conseiller d’une société nommée Grand Cannabis International, mais aussi de sites de jeux, de poker, et d’une société de vêtements de sports. Il a également perçu 200 000 euros mensuels “mystérieusement extraits de son activité de banque de cryptomonnaie utilisant la technologie blockchain”, écrit Euractiv.
Notre ex-Premier ministre, Guy Verhofstadt, 65 ans, négociateur du Brexit au Parlement européen, figure en troisième position de ce palmarès. Amateur de voitures de course britanniques, Verhofstadt, qui possède un vignoble toscan, a gagné entre 920 000 et 1,45 million d'euros, principalement en tant que membre du conseil d'administration de Sofina, une société d'investissement belge, mais aussi de ses prises de parole.
Le Français Renaud Muselier, actif dans le milieu médical, et sa compatriote Rachida Dati, qui est avocate, complètent le top 5, avec des revenus annexes minimum respectifs de 800 000 euros et 768 000 euros.
Parmi les députés belges, la proportion de ceux qui arrondissent leurs fins de mois avec ces activités annexes atteint 62 %, ce qui les classe 3èmes, derrière les Autrichiens (56 %) et les Danois (54 %), et avant les Français (51 %).
Des salaires pourtant confortables... assortis d'enveloppes qui ne nécessitent pas de notes de frais
Les députés gagnent déjà 101 808 € par an en moyenne, avant un taux d'imposition réduit de 22 % pour les fonctionnaires de l'UE. Outre leurs indemnités pour couvrir leurs frais de personnel, ils bénéficient mensuellement d’une enveloppe de 4400 euros qui leur est allouée pour les aider à couvrir leurs dépenses de frais généraux, et pour laquelle ils n’ont pas à fournir de justificatifs de dépenses.
Mais certains parviennent à doubler, voire à tripler ces gains, et entre 2014 et 2018, sur les 714 d’entre eux qui ont déclaré avoir des activités annexes, 104 ont déclaré avoir perçu plus de 100 000 euros cumulés au titre de ces activités, en plus de leur salaire de parlementaire.
Des risques bien réels de conflits d'intérêts
Transparency International met également en garde contre le manque de garde-fous pour encadrer de ces activités annexes rémunérées, qui posent pourtant parfois un risque bien réel de conflits d'intérêts.
Les principaux intéressés invoquent la nécessité de conserver un lien avec leur métier d’origine, qui leur permettra, le moment venu, de reprendre celui-ci à la fin de leur mandat. D’autres évoquent le besoin de garder le contact avec leur électorat.
RépondreSupprimerLa création d’un code de conduite en 2011, à la suite d’un scandale de corruption, aura finalement eu peu d’effets sur les habitudes des eurodéputés. Même si le comité d’éthique a été saisi à 24 reprises sur les 5 dernières années, aucune sanction n’a été prononcée à l’égard des contrevenants.
Transparency International souligne également que certaines déclarations d’activités assez vagues, telles que “consultant, avocat ou freelance” devraient susciter l’inquiétude, quand elles sont assorties de revenus élevés. “Trois eurodéputés exercent actuellement une activité rémunérée pour des organisations inscrites dans le registre européen des lobbies”, précise l’Organisation, qui précise qu’il s'agit de la Luxembourgeoise Viviane Reding “membre du conseil d'administration de la Fondation Bertelsmann, l'une des plus grandes entreprises de médias au monde” et qui a des intérêts dans les médias luxembourgeois, d’Agnes Jongerius, “eurodéputée néerlandaise qui figure au conseil de surveillance de PostNL, la poste des Pays-Bas” et de Paul Rübig, qui “travaille pour la chambre du commerce autrichienne”.
L’étude critique le système de surveillance “particulièrement faible” de l'UE, en comparaison de ce qui existe au Canada, aux Etats-Unis ou même en France. Par exemple, il est interdit pour les membres du Congrès américain d’exercer des activités rémunérées dans des domaines présentant des risques de conflits d’intérêts.
https://fr.express.live/2018/07/11/star-du-poker-avocat-ou-consultant-comment-les-deputes-europeens-arrondissent-leurs-fins
L'argent des contribuables de l'euroexit !
SupprimerDix ans plus tard, l'ACCC affirme que les transactions solaires sur les toits doivent cesser
RépondreSupprimerJuly 12th, 2018
L'ACCC est un organisme puissant créé pour protéger les consommateurs en Australie. Maintenant, après dix ans de pauvres qui sont obligés de payer pour des panneaux solaires de classe moyenne et supérieure dans une sorte de subvention semi-secrète, MAINTENANT, il est peut-être temps d'arrêter ?
Allez ACCC.
Les appels à la concurrence lancés en faveur des subventions solaires doivent être éliminés
Ben Packham, Sam Buckingham-Jones, L'Australien
Le rapport sur l'accessibilité à l'électricité de la Commission australienne de la concurrence et des consommateurs révèle le coût énorme des systèmes environnementaux sur le marché national de l'énergie, notamment l'objectif d'énergie renouvelable à grande échelle, le projet d'énergie renouvelable à petite échelle.
Les régimes ajoutent un montant combiné de 170 $ aux factures d'énergie des ménages en Australie-Méridionale, 155 $ en Tasmanie, 109 $ en Nouvelle-Galles du Sud, 93 $ à Victoria et 76 $ au Queensland.
L'ACCC regrette certaines raisons:
L'ACCC a déclaré que les coûts associés à la LRET devraient baisser de manière significative après 2020, et n'a recommandé aucune action pour liquider le système avant sa date de fin 2030. Mais il a déclaré que le SRES, qui a coûté 130 millions de dollars en 2016-2017, devrait être aboli et aboli d'ici 2021, presque une décennie plus tôt que prévu, afin de réduire les coûts pour les consommateurs.
Quand l'ACCC a-t-elle demandé quelle valeur les clients non-solaires recevaient de cette transaction ?
Les installateurs solaires doivent commencer à paniquer ...
Le propriétaire de Western Sydney Solar, Rod Grono, a déclaré qu'il craignait que l'abolition de la subvention solaire sur les toits ne conduise à une chute des installations solaires.
Et la vérité sur le retour sur investissement devient plus claire:
"La confiance va tomber. Pour un travail de 10 000 dollars, 5,2 kW (certificats de technologie à petite échelle) sont d'environ 3300 $. Cela signifie qu'une période de récupération de quatre ans devient une période de récupération de sept ou huit ans. Cela pourrait faire basculer les gens ", a déclaré M. Grono.
Solar est compétitif si vous lui donnez un tiers d'avance:
La modélisation a suggéré que le SRES financerait environ 32 % du coût d'un système de 5 kW
J'aurai beaucoup plus à dire à ce sujet. Malheureusement, je suis un escroc. Merci à TDeF, Robber, ROM pour l'aide. Surveillez cet endroit….
* Pourquoi le fardeau sur les maisons non solaires? Parce que certains avec des panneaux solaires ont été payés au-dessus des taux du marché pour les électrons verts, et d'autres maisons solaires ont eu l'utilisation d'équipements subventionnés afin qu'ils n'aient pas à acheter autant d'électricité.
http://joannenova.com.au/2018/07/ten-years-late-the-accc-says-rooftop-solar-deals-must-stop/
Une échappatoire au Code fiscal pourrait permettre un taux d'imposition de 21 % pour les pays les plus riches
RépondreSupprimerpar Tyler Durden
Jeu, 07/12/2018 - 14:49
Le code des impôts est si compliqué, alambiqué et difficile à suivre que l'administration Trump a peut-être par inadvertance offert à ceux qui stockent des liquidités et des investissements une autre réduction d'impôt importante - leur permettant d'exploiter le taux des entreprises de 21% - sans même le savoir.
Tout comme le travail de patchwork que la Réserve fédérale a effectué sur l'économie, le code des impôts a été constamment révisé et réécrit pendant des années, mais personne n'a eu le courage de se rendre compte que peut-être en retirer une bonne partie nous beaucoup plus de mal que de bien. Avec ce type de pensée rétrograde vient des erreurs ridicules, comme celui mis au jour récemment. Les plus riches de la nation peuvent maintenant potentiellement exploiter le taux d'imposition des sociétés de 21% pour les gains personnels à l'étranger.
Pendant des années, le code des impôts a été raillé en raison de sa nature compliquée et de son contenu volumineux. Année après année, élection après élection, les politiciens promettent d'essayer de nettoyer le code des impôts, ce qui facilite la compréhension de «nous tous». Cela n'arrive jamais.
L'administration Trump a essayé de simplifier les choses, en publiant récemment une version format carte postale du formulaire 1040 pour la plupart des gens qui n'ont pas de retour compliqué.
Mais seulement maintenant - mois après que Trump a signé ses réductions d'impôts - les comptables commencent à se rendre compte que la réduction du taux d'imposition des sociétés a pu créer une échappatoire fiscale qui pourrait permettre à certaines des personnes les plus riches du pays aux comptables et experts fiscaux coûteux de toute façon - d'être imposé au taux d'entreprise. Bloomberg a rapporté sur l'histoire:
Une disposition fiscale obscure des années 1960 qui n'a pas été touchée par la réforme du président Donald Trump pourrait permettre aux investisseurs individuels fortunés de se saisir eux-mêmes de la plus grande réduction d'impôt sur les sociétés de l'histoire des États-Unis.
La mesure - promulguée par le président John F. Kennedy - visait à empêcher les Américains de se protéger indéfiniment des impôts en maintenant leurs investissements à l'étranger. Cela les a forcés à payer des impôts chaque année sur ces investissements, mais leur a donné l'option de faire taxer ce revenu au taux de l'entreprise plutôt qu'à des taux individuels.
Bloomberg a fait remarquer que la provision n'était pratiquement jamais utilisée, car le taux d'imposition des sociétés le plus élevé avait traditionnellement été le même ou plus élevé que le taux individuel le plus élevé, mais cela a maintenant changé.
Au cours des dernières décennies, les investisseurs ont eu peu de raisons de choisir le taux d'imposition des sociétés, puisqu'il était presque le même que le taux personnel le plus élevé. Mais tout a changé en décembre, lorsque la loi fiscale de Trump a réduit le taux d'imposition des sociétés à 21%, soit 16 points de pourcentage de moins que le taux d'imposition fédéral le plus élevé des particuliers.
Un expert dans l'article est cité comme disant "... nous avons juste oublié à ce sujet."
RépondreSupprimerQuant à savoir comment cela fonctionnera spécifiquement: Les investisseurs doivent créer des sociétés offshore où ils peuvent stocker leurs investissements passifs générateurs de revenus. À partir de là, ils peuvent choisir de payer le taux d'imposition des sociétés, plutôt que leur taux d'imposition normal, sur ce qu'ils gagnent. L'argent est imposé une deuxième fois s'il est retourné aux États-Unis, mais pour les investisseurs ayant un horizon à plus long terme, cette échappatoire pourrait encore créer un allégement fiscal important.
L'encaissement potentiel du taux des entreprises découle d'une partie compliquée et controversée du code fiscal connu sous le nom de sous-partie F. Le Congrès a adopté la section en 1962 afin d'empêcher les sociétés de reporter les impôts dans les filiales étrangères. Malgré la dissuasion, les chercheurs ont estimé que les entreprises américaines stockaient plus de 3 billions de dollars de leurs revenus à l'étranger. La récente loi fiscale crée une taxe obligatoire - à un taux unique - qui s'applique à ces revenus extraterritoriaux.
La sous-partie F comprend également une section, 962, qui permet aux contribuables individuels d'agir comme si une société nationale «fantôme» se dressait entre eux et leur société étrangère. Le Congrès a créé cette section comme un moyen de mettre les individus sur un pied d'égalité avec ceux qui détenaient des sociétés nationales réelles qui possédaient une filiale étrangère.
Cela dit, ceux qui envisagent de profiter de cette échappatoire devraient probablement le faire avec une certaine facilité, car il semblerait douteux que cela va durer, surtout quand il y a une réaction publique à ce dernier cadeau aux riches.
En général, cette échappatoire ne peut être décrite que comme un autre élément d'inefficacité typique des innombrables bureaucrates du gouvernement qui continuent de croire qu'une réglementation excessive et la mise en place de pansements sont une solution favorable au lieu de simplement réduire le gouvernement dans nos vies. . Le travail de patchwork constant que le gouvernement et l'IRS font sur le code des impôts est maintenant - plus que jamais clairement - contre-intuitif. Après une erreur embarrassante comme celle-ci, le gouvernement commencera-t-il à comprendre ? Probablement pas
https://www.zerohedge.com/news/2018-07-12/tax-code-loophole-could-allow-21-tax-rate-nations-richest
FOOTBALL - LES GROS PLANS SUR LES FEMMES BIENTÔT INTERDITS !!
RépondreSupprimerAfin de lutter contre le sexisme, la FIFA a demandé aux diffuseurs TV de la Coupe du monde de stopper les gros plans sur les supportrices.
La FIFA enquête également sur le comportement des hommes vis-à-vis des femmes aux abords des stades.
12.07.2018
C'est devenu un rituel: pendant les matches de Coupe du monde, les téléspectateurs ont droit à de nombreux plans isolés sur certaines supportrices sexy, quitte à ce que ces dernières apparaissent comme de vulgaires objets de foire.
La FIFA a fait de la lutte contre le sexisme l'un de ses chevaux de bataille. C'est pour cela qu'elle a demandé aux diffuseurs de la compétition de stopper les gros plans sur les femmes en petite tenue. Federico Addiechi, le responsable diversité de l'instance, l'a expliqué mercredi lors d'une conférence de presse: «Ce sera l'un de nos axes de développement, c'est normal. Nous avons étudié les images et ce sexisme était assez flagrant.» La télévision russe, notamment, est particulièrement visée Outre cette mesure, la FIFA déplore le nombre de femmes, «essentiellement russes», abordées à proximité des stades ainsi que les journalistes agressées pendant leur duplex. Federico Addiechi a déclaré collaborer avec la police et les organisateurs locaux afin d'identifier ces personnes et, éventuellement, de les interdire de stade. (nxp)
https://www.lematin.ch/coupe-du-monde/actualites-internationales/gros-plans-femmes-bientot-interdits/story/17876162
Le foot est un sport de pédés et tient à le demeurer.
SupprimerL'état des plages du monde
RépondreSupprimerArjen Luijendijk, Gerben Hagenaars, Roshanka Ranasinghe, Fedor Baart, Gennadii Donchyts et Stefan Aarninkhof
27 avril 2018
Abstrait
Les zones côtières constituent l'une des zones terrestres les plus densément peuplées et développées du monde. Malgré l'utilité et les avantages économiques que procurent les côtes, il n'y a pas d'évaluation fiable à l'échelle mondiale des tendances historiques du changement des rives. Ici, grâce à l'utilisation d'images satellitaires optiques disponibles depuis 1984, en conjonction avec des méthodes sophistiquées d'interrogation et d'analyse d'images, nous présentons une évaluation globale de l'occurrence des plages sablonneuses et des taux de changement du littoral. En appliquant la classification supervisée à base de pixels, nous avons constaté que 31 % du littoral sans glace du monde sont sablonneux. L'application d'une méthode automatisée de détection des rives aux rivages sablonneux ainsi identifiés a donné lieu à un ensemble de données mondiales sur les taux de modification des rives pour la période de 33 ans allant de 1984 à 2016. L'analyse des données du littoral dérivé du satellite indique que 24 % des plages sableuses du monde s'érodent à des taux dépassant 0,5 m / an, tandis que 28% s'accroissent et 48% sont stables. La majorité des rivages sablonneux des aires marines protégées s'érodent, ce qui suscite de graves préoccupations.
introduction
Les zones côtières ont historiquement attiré les humains et les activités humaines en raison de l'abondance des aménités, de la valeur esthétique et des divers services écosystémiques qu'elles fournissent. En conséquence, la zone côtière du monde entier est devenue très peuplée et développée1,2,3, 15 des 20 mégapoles (plus de 10 millions d'habitants) du monde étant situées dans la zone côtière. Le littoral global est spatialement très variable et comprend plusieurs types différents de reliefs côtiers, par exemple des îles-barrières, des falaises marines, des battures et des deltas fluviaux. Parmi ces différents types de littoral, nous nous concentrons ici sur les côtes sablonneuses, qui sont très dynamiques dans le temps et l'espace, et constituent une partie substantielle du littoral mondial4. Comme les côtes sableuses sont très développées et densément peuplées en raison de l'aménité et de l'esthétique qu'elles offrent, l'érosion de ces côtes au cours des dernières décennies entraîne déjà des pressions côtières5. Inévitablement, les impacts du changement climatique sur les côtes sableuses ne feront qu'exacerber cette situation6,7. Ainsi, des évaluations fiables de l'occurrence des côtes sablonneuses et de leurs taux de changement sont essentielles pour une planification spatiale efficace, un développement côtier durable, des projets d'ingénierie côtière et l'atténuation des impacts du changement climatique le long des côtes du monde entier.
Malgré l'utilité, les avantages économiques et la nature dynamique des côtes sablonneuses, il n'y a pas d'évaluation fiable à l'échelle mondiale de leur occurrence ou des taux de changement du littoral (c'est-à-dire les taux d'érosion / d'accrétion). Les estimations à l'échelle mondiale actuellement disponibles de ces phénomènes varient considérablement, et la façon dont la plupart de ces estimations ont été dérivées n'est pas claire au mieux. Par exemple, le pourcentage d'occurrence des littoraux sablonneux à l'échelle mondiale rapporté dans la littérature varie d'un facteur 7 allant de 10 % 8 à 75 % 9. En ce qui concerne les taux de changement dans les rivages sablonneux, plusieurs estimations récentes fiables à l'échelle régionale existent pour l'Europe (27 % d'érosion10 et les plages barrières de la côte Est des États-Unis (86 % d'érosion11). Cependant, comme l'étude de Bird, à l'époque révolutionnaire, reposait principalement sur une enquête auprès de 200 participants de 127 pays, cette estimation est plutôt qualitative.
RépondreSupprimerUne estimation robuste des taux de changement des rives nécessite nécessairement des informations continues et à long terme sur la position du littoral. Historiquement, l'acquisition d'ensembles de données sur les rivages a été une tâche laborieuse et coûteuse, car elle impliquait des relevés terrestres traditionnels ou l'analyse de données temporellement rares recueillies à partir de plateformes aériennes (photographies ou lidar). L'augmentation de la disponibilité, de la résolution et de la couverture spatiale de l'imagerie satellitaire au cours des dernières années constitue maintenant une puissante alternative pour obtenir des données fiables et à l'échelle mondiale sur les rives, comme nous le montrons dans cet article.
La méthode couramment utilisée pour extraire les rivages des images satellites dans le passé impliquait une analyse image par image minutieuse de séries d'images qui se chevauchent. Le lancement récent de la plate-forme Google Earth Engine (GEE), qui contient des archives d'images satellitaires mondiales mises à jour en permanence, permet désormais une détection efficace des rives à l'échelle mondiale. La combinaison d'une collection d'images satellite Petabyte et de calcul parallèle sur le côté serveur de la plate-forme réduit le temps de traitement de l'image à seulement quelques minutes par image13 et permet une validation efficace des rives détectées automatiquement sur plusieurs sites où des données de terrain sont disponibles.
Pour permettre la cartographie globale des littoraux sablonneux, il est d'abord nécessaire d'identifier les plages sablonneuses, puis de déterminer les positions du littoral dans chaque image de la plate-forme GEE. Les échelles spatio-temporelles associées à cette étude (échelle globale, analyse à 33 ans) et la grande quantité d'images satellitaires devant être analysées nécessitent l'utilisation de techniques robustes d'analyse automatisée des images. Les techniques d'apprentissage automatique14 et de traitement d'image15 qui se prêtent à de telles analyses automatisées sont facilement disponibles. Cependant, pour pouvoir utiliser les positions des rivages dérivées par satellite pour des applications réelles telles que l'estimation fiable des tendances et des dommages structurels à l'infrastructure, une résolution horizontale d'au moins 10-20 µm est requise. Par exemple, les taux de changement de rivage au-dessus de 0,5 m / an sur une longue période sont généralement utilisés pour signaler qu'une zone côtière subit une érosion ou une accrétion chronique (= à long terme, c'est-à-dire des décennies à des siècles).
Sur une période de 30 ans, cela signifierait un déplacement total de seulement 15 mètres. Des études antérieures ont évalué la précision de position des rivages dérivés de satellite (SDS) basée sur des images uniques15,16,17,18,19 pour se situer entre 1,6 et 10 µm. Il convient de noter que ces études ont souffert de limitations telles que le nombre d'images utilisées, la qualité des données in situ utilisées pour la validation ou l'ampleur des changements dans la position du littoral observée. Récemment, Hagenaars et al.20 ont présenté une analyse d'image satellite à long terme, mais à échelle locale, sur les tendances du rivage, qui permet de surmonter toutes les limitations mentionnées ci-dessus. Ils ont trouvé que la précision du SDS dérivé d'images composites moyennes mobiles était d'une précision de sous-pixels (taille d'environ un demi-pixel, à savoir 15 um pour Landsat et 5 um pour Sentinel-2). La précision de <15 µm, rapportée par Hagenaars et al.20 pour les images Landsat composites, correspond au déplacement requis de 15 µm pour des classifications de changement de rivage fiables au cours des 30 dernières années. Pour cette raison, nous adoptons la même approche dans cette étude, mais à l'échelle mondiale.
RépondreSupprimerNous présentons ici une évaluation à jour de la dynamique des rivages sableux à l'échelle mondiale à l'aide d'une analyse entièrement automatisée de 33 ans (1984-2016) d'images satellitaires. Tout d'abord, nous détectons les plages de sable dans le monde entier en appliquant une classification supervisée basée sur des pixels à une image composite globale haute résolution sans nuage pour 2016. Un jeu de données d'entraînement numérique est fourni au logiciel de classification et validé pour 50 sites dans le monde incluant et les plages non sablonneuses. Ensuite, nous appliquons un algorithme de détection du littoral pour filtrer les images composites annuelles globales libres en utilisant plus de 1,9 million d'images Landsat historiques. Après une validation quantitative réussie de cette technique sur plusieurs sites situés dans divers environnements géographiques et conditions environnementales, nous obtenons des taux de changement de rivage en m / an sur des transects avec un espacement long-shore de 500 µm le long de la côte du monde. Les méthodes mentionnées ci-dessus sont élaborées dans la section Méthodes ci-dessous tandis que la validation complète est présentée Matériel supplémentaire (S2).
Les principaux résultats de notre analyse comprennent: (a) la présence mondiale de plages sableuses, (b) le taux d'érosion / accrétion sur toutes les plages de sable du monde, (c) les impacts naturels et anthropiques observés sur l'érosion côtière / l'accrétion et (d) l'identification des points chauds mondiaux de l'érosion / accrétion côtière.
Résultats
Occurrence mondiale des rivages sablonneux
Les classifications côtières ont été largement utilisées dans le domaine de la géomorphologie pour caractériser la diversité des reliefs côtiers et les contextes dans lesquels ils émergent, mais jusqu'à présent, aucun système de classification n'a été exhaustif ou étendu21,22. Les critères de ces classifications comprennent généralement les témoins tectoniques23 et hydrodynamiques, ainsi que la réponse sédimentologique. Les contrôles hydrodynamiques considérés comprennent les classifications des paramètres de la vague24, l'amplitude des marées24, 25 et une combinaison des deux26. Une classification ternaire présentée par Boyd et coll.27, qui considère l'importance relative des apports fluviaux, de l'énergie des vagues et du forçage des marées, fournit une analyse utile des côtes sédimentaires siliciclastiques. La combinaison des contrôles tectoniques et hydrodynamiques a conduit à la proposition de classifications morphogénétiques côtières28, qui sont probablement les schémas de classification les plus largement utilisés.
La texture et la composition des sédiments29 sont également utiles pour classifier et décrire les environnements sédimentaires côtiers. Cependant, les valeurs de la présence mondiale de littoraux sablonneux varient entre 10% et 75% (voir le tableau 1). Les méthodes utilisées pour arriver à ces valeurs restent, dans la plupart des cas, peu claires ou qualitatives (comme également indiqué dans le tableau 1).
RépondreSupprimer- voir sur site -
Tableau 1 Valeurs déclarées des occurrences mondiales et régionales des littoraux sableux et des pourcentages d'érosion et d'accrétion chroniques.
Table pleine grandeur
Dans notre analyse, nous avons appliqué une classification supervisée (guidée par l'homme) à des images satellitaires globales sans nuage (voir la section 3.2) pour identifier les littoraux sablonneux. L'une des principales raisons pour lesquelles nous nous concentrons ici sur les plages sablonneuses est que la détection de la dynamique des rives pour les rivages non sablonneux comme les côtes boueuses peut être complexe. Les pentes douces de l'estran, entraînant de grandes marées horizontales, et une teneur élevée en eau entravent la détection correcte des rives. Dans le cas des mangroves, les cycles de croissance saisonniers peuvent entraver la détection correcte du littoral. En outre, comme les signatures de réflectance des plages de sable et de gravier ne peuvent pas être différenciées dans l'imagerie satellitaire, les deux matériaux proviennent des mêmes composites granulaires de roche finement divisée.
Notre analyse a montré que 31 % du littoral mondial libre de glace est sablonneux. Le continent ayant la plus forte présence de plages sableuses est l'Afrique (66 %), alors qu'en Europe, seulement 22 % du littoral est sablonneux (voir le tableau inséré à la figure 1). Le pourcentage de littoraux sablonneux obtenus à partir de cette analyse pour les États-Unis et l'Australie se compare bien avec les valeurs d'échelle régionales rapportées plus récemment (voir le tableau 1). L'écart le plus important constaté en pourcentage pour l'Europe est influencé de manière significative par la plus petite longueur totale du littoral utilisée dans la base de données Eurosion10. Il convient de noter que la classification des plages de sable comprend également les plages de gravier dans le monde. Les signatures de réflectance des plages de sable et de gravier ne peuvent pas être différenciées dans l'imagerie satellitaire car les deux matériaux proviennent des mêmes composites granulaires que les roches finement divisées.
- voir sur site -
Figure 1
Répartition mondiale des littoraux sableux; les points colorés le long du rivage du monde représentent le pourcentage local de littoraux sableux (le jaune est du sable, le brun foncé est non-sable). La sous-placette à droite présente l'occurrence relative des rivages sablonneux par degré de latitude, où la ligne pointillée montre la distribution latitudinale des rivages sablonneux signalés par Hayes31. La sous-placette inférieure présente l'occurrence relative des rivages sableux par degré de longitude. Les lignes grises et pointillées en gris de l'intrigue principale représentent les limites des rives libres de glace considérées dans notre analyse. Les pourcentages soulignés indiquent les pourcentages de littoraux sableux moyennés par continent. La carte est créée avec Python 2.7.12 (https://www.python.org) en utilisant Cartopy (v0.15.1, Met Office UK, https://pypi.python.org/pypi/Cartopy/0.15.1) et Matplotlib58 .
- voir sur site -
Image pleine grandeur
La distribution latitudinale globale des littoraux sableux montre une relation distincte avec la latitude et donc avec le climat; aucune relation n'est trouvée avec la longitude. La présence relative de rivages sableux augmente dans les régions subtropicales et les latitudes moyennes inférieures (20 ° -40 °) avec des maxima autour des latitudes des chevaux (près de 30 ° S et 25 ° N, voir la figure 1). En revanche, ils sont relativement moins fréquents (<20%) dans les régions tropicales humides où la boue et les mangroves30 sont les plus abondantes en raison des températures élevées et des précipitations. Le pourcentage de littoraux sablonneux diminue au-delà du parallèle de 50 °. Cette distribution latitudinale des littoraux sablonneux est conforme à la variation latitudinale des sédiments communs dans le plateau continental interne signalée par Hayes31, sur la base de ~ 2000 transects provenant de 131 zones côtières (voir sous-placette droite à la Fig. 1).
RépondreSupprimerÉrosion mondiale de la plage de sable
L'érosion mondiale des plages est apparue au cours des années 80, à la suite des études du groupe de travail de l'Union géographique internationale sur la dynamique de l'érosion côtière (1972-1976) et de la Commission sur l'environnement côtier (1976-1984). Dans ces études, deux cents participants représentant 127 pays ont contribué à une enquête qui a indiqué que 70% (10%) des plages de sable du monde ont connu une érosion nette (accrétion) tandis que 20 % étaient stables32. Cependant, comme ces estimations étaient principalement le résultat d'entrevues, elles sont nécessairement qualitatives, au mieux. En outre, les estimations n'ont probablement pas pris en compte les changements intervenus le long des côtes non aménagées et inhabitées en raison de la méthodologie subjective adoptée.
La distribution mondiale quantitative des littoraux sablonneux présentée ici, pour la première fois, permet la dérivation d'une évaluation à l'échelle mondiale objective et à jour des changements chroniques du littoral (c'est-à-dire l'érosion / l'accrétion des plages). L'érosion des plages peut se produire à différentes échelles de temps33. Les tempêtes individuelles entraîneront généralement une érosion rapide à court terme, suivie d'une accrétion à court terme, entraînant une variation nette négligeable sur des échelles de temps de quelques semaines-mois. Si les carences en sédiments persistent pendant de longues périodes (par exemple, en raison des gradients de longeur dans le transport des sédiments, de la réduction de l'apport de sédiments fluviaux à la côte), une érosion chronique peut en résulter. L'analyse présentée ici met l'accent sur l'érosion chronique et l'accrétion. Cependant, il n'existe pas de normes communes pour la classification des taux de changement de plages chroniques34, qui est généralement quantifiée par un traitement statistique des taux d'érosion et / ou des pertes volumétriques (par exemple, réf.
La précision des données SDS d'environ 0,5 pixel (voir Section 1) et la période d'étude d'environ 30 ans permettent une classification des taux de changement de plage avec des limites de classes de 0,5 m / an. Par conséquent, nous avons adopté le système de classification chronique de l'érosion des plages proposé par Esteves et Finkl36 et l'avons étendu à une classification pour l'érosion extrême résultant du schéma ci-dessous:
Accrétion> 0,5 m / an
Stable-0.5 à 0.5 M / an
Erosion-1 à -0,5 M / an
Érosion intense-3 à -1 m / an
Érosion sévère-5 à -3 m / an
Erosion extrême <-5 m / an
Notre évaluation montre que 24 % des plages sableuses du monde s'érodent de façon persistante à un taux dépassant 0,5 m / an au cours de la période d'étude (1984-2016), tandis que 27 % s'accrotent (voir le tableau 1). Environ 16 % (18 %) des plages de sable connaissent des taux d'érosion (accrétion) supérieurs à 1 m / an.
RépondreSupprimerL'érosion chronique des plages (<-0,5 M / an) est montrée à travers le globe avec une variation latitudinale relativement faible (voir Fig. 2). Généralement, entre 30 % et 40 % des plages sableuses par degré de latitude s'érodent avec des valeurs d'érosion relativement élevées jusqu'à 50% juste au sud de l'équateur, associées à des pertes de terres à grande échelle adjacentes à l'embouchure de l'Amazone.
- voir sur site -
Figure 2
Points névralgiques mondiaux d'érosion et d'accrétion des plages; les cercles rouges (verts) indiquent l'érosion (accrétion) pour les quatre classifications dynamiques pertinentes du littoral (voir la légende). Les graphiques en barres à droite et en bas présentent l'occurrence relative de littoraux sablonneux qui s'érodent (s'accumulant) par degré de latitude et de longitude, respectivement. Les chiffres présentés dans la placette principale représentent le taux de changement moyen pour tous les littoraux sableux par continent. La carte est créée avec Python 2.7.12 (https://www.python.org) en utilisant Cartopy (v0.15.1, Met Office UK, https://pypi.python.org/pypi/Cartopy/0.15.1) et Matplotlib58 .
- voir sur site -
Image pleine grandeur
Des taux d'érosion plus sévères sont trouvés à divers endroits à travers le globe. Environ 7 % des plages de sable du monde connaissent des taux d'érosion classés comme graves. Les taux d'érosion dépassent 5 m / an le long de 4 % du rivage sablonneux et sont supérieurs à 10 m / an pour 2 % du littoral sableux global. D'autre part, environ 8 % des plages sableuses du monde connaissent une accrétion significative (> 3 m / an), tandis que 6% (3%) s'accroissent de plus de 5 m / an (10 m / an).
Dans une perspective continentale, l'Australie et l'Afrique sont les seuls continents pour lesquels l'érosion nette (-0,20? M / an et -0,07? M / an) est retrouvée, tous les autres continents montrant une augmentation nette. Le continent ayant le taux d'accroissement le plus élevé (1,27 m / an, voir le tableau de la figure 2) est l'Asie, probablement en raison du développement artificiel de la côte chinoise et de grandes réclamations de terres à Singapour, Hong Kong, Bahreïn et ÉMIRATS ARABES UNIS. À l'échelle mondiale, les plages du monde se sont accrues en moyenne de 0,33 m / an au cours des trois dernières décennies, soit un gain total de 3 663 km² au cours de cette période.
En utilisant les données SDS nous nous sommes concentrés sur les zones protégées internationalement par la base de données mondiale sur les aires protégées (WDPA), qui est la base de données mondiale la plus complète sur les aires protégées terrestres et marines produite par le PNUE-WCMC et l'UICN37. Par rapport à la moyenne mondiale, un pourcentage relativement élevé de rivages sableux dans les zones identifiées par la WDPA connaissent une érosion. Notre analyse indique que 32 % de tous les littoraux marins protégés sont sableux, dont 37 % s'érodent à un taux supérieur à 0,5 m / an, tandis que 32 % s'accumulent.
Quantification de l'érosion / accumulation locale due aux interventions humaines
RépondreSupprimerAucune explication ne peut facilement expliquer les tendances d'érosion / d'accrétion observées le long du rivage sablonneux global, ou l'accélération de l'érosion / accrétion sur une plage donnée38. Cependant, l'analyse des tendances locales dérivées de l'évaluation des rives à l'échelle mondiale présentée ici peut aider à identifier les facteurs naturels et humains du changement du littoral. Pour illustrer ceci, nous présentons deux points forts du comportement érosif et deux du comportement relutif. Quatre autres points saillants sont présentés dans le document supplémentaire (S3).
a) Exploitation du sable et affaissement
Le delta du Mékong au Vietnam, le troisième plus grand delta du monde, est de plus en plus affecté par les activités humaines et exposé à l'affaissement et à l'érosion côtière. L'érosion des rives à grande échelle est attribuée à l'exploitation excessive du sable dans les canaux fluviaux et deltaïques et à l'affaissement dû à l'extraction non réglementée des eaux souterraines39. L'analyse des données SDS (figure 3a) révèle une légère érosion entre 1984 et 1990, après quoi des taux d'érosion plus élevés mais constants sont trouvés. Les taux d'érosion dans la zone considérée se situent généralement entre 25-30 m / an au cours des trois dernières décennies. Sur la base de la forte tendance linéaire, les données de la SDD peuvent être utilisées pour les projections de perte de terres et de stratégies de déplacement, car les taux d'érosion ne devraient pas diminuer dans un proche avenir si des mesures d'atténuation ne sont pas mises en œuvre.
- voir sur site -
figure 3
Exemples de rives dérivées par satellite pour quatre cas choisis d'érosion et d'accrétion de plage attribuables à des interventions humaines. La colonne de gauche présente deux cas érosifs tandis que la colonne de droite montre deux cas accrétifs. Dans chaque figure, la ligne bleue indique la rive la plus ancienne de la SDD, tandis que la ligne rouge représente la rive la plus récente de la SDD. Les graphiques ci-dessous indiquent les positions du littoral au fil du temps au transect en pointillé blanc pour chaque cas; les graphes supérieurs correspondent aux images de la rangée supérieure. Les taux de changement indiqués (m / an) sont obtenus à partir de l'ajustement d'une ligne de meilleur ajustement aux données de position du littoral pour chaque transect. La figure est créée avec Python 2.7.12 (https://www.python.org) en utilisant Matplotlib58. Les cartes sont créées avec la version 2.18.3 de QGIS (Open Source Geospatial Foundation Project, http://qgis.osgeo.org) en utilisant des images satellites fournies par Google Maps. Données cartographiques: Google, Terrametrics, CNES / Airbus, IGP / DGRF et DigitalGlobe.
- voir sur site -
Image pleine grandeur
b) Les structures côtières
Les structures portuaires de Nouakchott, en Mauritanie, ont bloqué le grand transport de sable littoral nord-sud unidirectionnel depuis 1986, causant des zones d'érosion des plages qui ont eu un impact sur les développements sociaux et urbains locaux. Les taux d'évolution des rives observés après la construction du port sont 10 fois plus élevés que les valeurs qui auraient été observées à l'état naturel40. Les brise-lames du port ont provoqué une grave érosion sur une distance de plus de 10 km dans la zone aval, où l'accrétion risquait de se produire en l'absence du port. Les données SDS (figure 3b) montrent des taux d'érosion de 20 µm / an.
c) Les nourritures de sable
RépondreSupprimerUn système de dérivation à grande échelle est devenu opérationnel en 2001 à la rivière Tweed, en Nouvelle-Galles du Sud, en Australie, afin d'atténuer l'érosion des plages au nord des jetées construites à l'entrée de la rivière41. Le système de dérivation pompe le sable du sud de l'embouchure de la rivière vers trois compartiments de plage situés au nord de la rivière à travers des pipelines enfouis. Les données de la FDS (figure 3c) montrent un élargissement de plage de ~ 250 µm à la baie de Coolangatta dans les quatre années suivant la mise en service du système de dérivation.
d) Interception de la dérive littorale par les structures côtières
La construction de deux brise-lames d'entraînement à Praia da Barra près de la lagune d'Aveiro, au Portugal, a interrompu le transport côtier le long des côtes, estimé à environ 1 million de m3 / an42. Il en est résulté une érosion au sud de la passe d'eau entraînée affectant le littoral sur environ 30 km de profondeur, mais aussi une forte poussée d'accrétion. Les données SDS révèlent l'accrétion continue et continue de la plage nord à une vitesse d'environ 10 m / an (figure 3d).
- voir sur site -
Points chauds mondiaux de plages érosives et relutives
Nous présentons ici les tronçons côtiers les plus érodés et accrétifs (c'est-à-dire les points chauds) dans le monde (tableau 2). Le plus grand point chaud érosif est juste au sud de Freeport au Texas où un tronçon de 17 km de la plage a érodé en moyenne plus de 15 m / an au cours des trois dernières décennies. Le plus long tronçon côtier du monde souffrant d'érosion sévère est situé plus à l'est au Texas où nous avons observé une étendue de sable de 29 km avec un taux d'érosion moyen de 5,3 m / an. Fait intéressant, quatre des sept plus grands points chauds sont situés aux États-Unis, ce qui correspond à la préoccupation généralisée et aux rapports d'érosion aux États-Unis11,35,43,44.
Tableau 2 Les plus grands points chauds érosifs et reluisant de plage de sable du monde.
- voir sur site -
Table pleine grandeur
Le plus grand point chaud relutif est en Namibie à un endroit où une compagnie minière a construit des diguettes de sable non protégées dans la mer pour faciliter la prospection de diamants. La zone située à l'intérieur des digues est asséchée pour faciliter la prospection de diamants. On trouve des plages de longueur supérieure à 20 km et des vitesses de changement supérieures à 7 m / an dans une île-barrière migratoire (Schiermonnikoog, Pays-Bas) et dans des zones de migration des dunes (Madagascar et Mauritanie). Il convient de noter que quatre des sept plus grands points chauds relutive sont en fait d'origine humaine.
Perspective
RépondreSupprimerDans un proche avenir, nous prévoyons un grand potentiel pour les techniques de télédétection et l'analyse de données volumineuses dans la surveillance opérationnelle de la côte et des plages du monde. L'analyse globale des changements du rivage sablonneux présentée ici est principalement basée sur des images Landsat avec une résolution de 30 µm et un temps de retour de 16 jours. Au cours des dernières années, de nouveaux satellites (Sentinel-2a, b) qui enrichiront de manière significative les données d'imagerie satellitaire à la fois en résolution temporelle (temps de retour de quelques jours) et en résolution spatiale (<10 µm) ont été lancés. Actuellement, les institutions privées fournissent déjà des images satellites à env. Résolution de 1 M avec une revue quotidienne et une couverture mondiale. Nous nous attendons à ce que cette tendance exige de mettre davantage l'accent sur les statistiques de données volumineuses dans un proche avenir afin de mieux surveiller la façon dont la planète change.
Méthodes
Le flux de travail appliqué dans cette étude comprend trois méthodes telles que décrites ci-dessous et illustrées à la Fig. 4.
- voir sur site -
Figure 4
La procédure suivie pour calculer les tendances du changement de rivage pour les littoraux sablonneux à l'aide d'un système de transect global. La figure est compilée en utilisant www.draw.io, tandis que les cartes de la figure sont faites en utilisant © Mapbox et © OpenStreetMap, disponibles sous la licence Open Database (https://www.openstreetmap.org/copyright).
- voir sur site -
Image pleine grandeur
Système de transect global
Pour l'analyse globale et la visualisation, nous avons défini des transects espacés de 500 µm orthogonaux au rivage global à partir de l'ensemble de données OpenStreetMap45 (OSM) de 2016. La longueur du littoral global, ainsi que par pays, est calculée en sommant les intersections droites transects. La longueur totale du rivage libre de glace à l'échelle mondiale déterminée à partir de cette analyse est de 1,11 million de km, ce qui est comparable aux valeurs précédemment rapportées de 1 million km3, 1,16 million km46 et 1,47 million km47. À l'avenir, nous avons l'intention de fusionner le système de transects de 500 µm avec les réseaux disponibles localement et de l'affiner le cas échéant.
Détection de plages de sable
Les plages sablonneuses sont détectées en appliquant une classification supervisée basée sur des pixels à une image composite de percentile de réflectance de Top of Atmosphere (TOA) pour l'année 2016 en utilisant toutes les images Sentinel-2 disponibles. Pour faciliter cela, le monde a été divisé en boîtes de 20 km × 20 km. À l'aide du rivage de l'OSM de 2016, nous ne sélectionnons que les cases qui se croisent avec le littoral de 2016, ce qui donne lieu à l'analyse d'environ 24 000 boîtes. Pour former le classificateur supervisé, une zone de plage entièrement constituée de sable est sélectionnée (sur l'île néerlandaise de Texel) ainsi que des zones d'entraînement sur des terrains représentant différents types d'utilisation des terres. Pour sélectionner l'algorithme de classification le plus prometteur, les résultats de la validation ont été comparés quantitativement à la fonction de plage de sable dans l'OSM. Parmi les quatre algorithmes de classification considérés, le classificateur Arbre de classification et de régression (CART) a produit la plus faible erreur d'omission et le pourcentage le plus élevé de vrais positifs (97 %) sur une plage de 100 km de long côte.
Ensuite, nous appliquons la méthode de classification supervisée à toutes les boîtes pour détecter les plages sablonneuses à l'échelle mondiale, car la fonction de plage OSM n'est pas disponible pour l'ensemble du globe. Une zone de recherche de 500 m au-dessus du littoral de l'OSM 2016, à l'intérieur et à la surface de la mer, est définie, après quoi la classification supervisée est effectuée à l'aide de GEE pour détecter automatiquement les plages de sable. Le résultat est une série de polygones encapsulant toutes les plages de sable du monde entier, y compris les sables quartzeux et carbonatés, et le gravier. Plus de 50 sites de validation de sable, répartis de manière aléatoire à travers le monde, ont été sélectionnés indépendamment de l'ensemble de données d'entraînement. La validation par inspection visuelle a donné une précision de 96% (voir le matériel supplémentaire S1).
RépondreSupprimerLes transects qui se croisent avec un polygone de sable sont classés comme «sable» et les autres comme «non-sable». Les transects pour lesquels aucune classification de sable n'a pu être effectuée en raison de l'absence d'une image Sentinel-2 sans nuage sont étiquetés comme «composition de sédiments indéterminée». Comme cela s'applique à 5,2% de tous les transects, le pourcentage de plages de sable est de 31% ± 1,5%, en supposant que les zones inconnues se comportent comme la moyenne mondiale.
Détection dynamique du littoral
Pour éliminer les effets des nuages, des ombres, de la neige et de la glace, nous produisons des composites de réflectance top-of-the-atmosphere annuels, que nous utilisons ensuite pour estimer un masque d'eau de surface précis. Les images composites annuelles générées par les percentiles de réflectance de 15% par pixel ont été analysées afin de déterminer les positions du littoral à l'échelle mondiale, ce qui a entraîné la suppression des nuages et des ombres. Cette approche est comparable à la façon dont Hansen49 génère des images composites. Cependant, l'utilisation d'une valeur centile exacte s'avère plus appropriée que les moyennes moyennes d'intervalle utilisées dans cette étude. L'analyse des images composites diminue significativement l'influence du stade de la marée sur les positions de rivage détectées et permet de faire la moyenne de la variabilité saisonnière des caractéristiques des vagues et des plages. Néanmoins, sur les sites où la houle persiste, la mousse induite par les vagues due au déferlement des vagues introduira un décalage vers le large dans les rivages détectés. Fortuitement, cependant, cette persistance assure que le décalage induit par les vagues est probablement aussi présent dans les composites annuels et les rivages des autres années. Ainsi, les effets de la houle sur les rivages détectés sont susceptibles d'être limités, en particulier lorsque les taux de changement du littoral à long terme sur ces sites sont concernés.
Aux fins de validation avec les modifications à long terme des rives in situ, une période d'établissement de la moyenne optimale de 192 jours est appliquée; c'est-à-dire le premier nombre entier qui est trouvé en divisant le temps de retour global du capteur satellite (16 jours) par une période de marée semi-diurne (environ 12 heures). Dans le cas où toutes les images satellites de cet intervalle de moyenne sont exemptes de nuages, le niveau d'eau moyen correspond au niveau moyen de la mer. L'écart aléatoire potentiel d'une année à l'autre par rapport au «niveau moyen de la mer» dû aux images satellites omises est supposé avoir un effet limité sur la tendance sur 33 ans de la modification des rives; cette hypothèse sera vérifiée dans le cadre d'autres recherches.
Ensuite, les images composites résultantes sont utilisées pour estimer l'indice de différence d'eau normalisé (NDWI). Le filtre de détection de bord de Canny est utilisé pour estimer approximativement la position de la transition eau-terre, suivi de l'utilisation de la méthode de seuillage d'Otsu50 sur un polygone tampon autour de la transition eau-terre pour identifier le seuil le plus probable l'image. Les lignes d'eau détectées au bord du masque d'eau sont lissées en utilisant une opération de lissage gaussien 1D pour obtenir un rivage progressif évitant l'effet d'escalier induit par les pixels. Une valeur de trois donne les meilleurs résultats en fonction des quatre cas de validation; ce qui signifie qu'il faut trois cellules des deux côtés pendant le lissage 1D. La méthode peut donner lieu à plusieurs vecteurs riverains puisque les lacs et les petits canaux sont détectés. Dans ce cas, seule la position la plus au littoral est analysée.
RépondreSupprimerD'autres études ont appliqué le changement global de l'eau de surface et la détection des occurrences48,51, mais elles manquent de validation avec les changements de rivage mesurés in situ. Un certain nombre d'études ont validé leurs méthodes avec des positions transversales à un endroit19 ou sur des échelles spatiales limitées15. Nous évaluons ici la validité de la méthode de détection des rives pour quatre cas représentant différents types de plages, de sable, de marées et de vagues. Compte tenu de la répartition géographique, nous avons sélectionné les plages suivantes avec des programmes de surveillance du littoral à long terme: Sand Engine (Pays-Bas), Long Beach, WA (Côte Ouest, États-Unis), Narrabeen (Australie) et Hatteras Island (Côte Est, États-Unis) . Ce dernier cas est présenté ci-dessous tandis que les autres sont présentés dans le Matériel supplémentaire (S2).
Validation de l'île Hatteras
La validation de la méthode de détection du littoral par rapport aux changements observés sur les rives a été effectuée le long de 63 km de rivage sablonneux de l'île Hatteras, en Caroline du Nord, s'étendant sur 13 ans52. Les rives mesurées utilisées dans l'analyse ont été générées à partir de photographies aériennes historiques géoréférencées et servent à élaborer des indicateurs du taux de changement du rivage pour l'île Hatteras, de l'inlet Oregon au nord jusqu'au cap Hatteras au sud. Au total, neuf photographies aériennes, couvrant la période allant de 1989 à 2002, ont été obtenues par l'US Field Corps of Engineers Field Research Facility à Duck, en Caroline du Nord. Les rives des hautes eaux ont été numérisées pour produire une série chronologique de rives pour la zone d'étude. Les taux de changement du littoral ont été calculés pour 1989-2002 à l'aide de la régression linéaire.
Pour la même période, nous avons rassemblé 325 images satellites sans nuage et déterminé la position du rivage pour ce tronçon côtier; l'analyse n'a pris que 8 heures au total en raison de la puissance de calcul de la plate-forme GEE. Pour chaque transect, une régression linéaire a été effectuée. Les tendances linéaires calculées à partir de la SDS montrent une bonne concordance avec les taux de changement observés dans les rives (voir la figure 5). Le décalage moyen pour tous les transects entre les observations et SDS est de 2,0 µm avec un RMSE de 17 µm.
- voir sur site -
Figure 5
RépondreSupprimerTaux tendanciels observés (points rouges) et taux tendanciels dérivés du satellite pour la variation du littoral (ligne bleue) le long de l'île Hatteras pour la période 1989-2002. La figure est créée avec Python 2.7.12 (https://www.python.org).
- voir sur site -
Image pleine grandeur
Le matériel supplémentaire (S2) résume les statistiques d'erreur pour les quatre cas. Sur la base de ces validations, on peut conclure que la méthode de détection du littoral permet de calculer les taux de changement du littoral à long terme pour divers milieux côtiers. La moyenne des décalages sur trois sites de validation est de 2,3 µm avec un RMSE de 21 µm.
Bien que l'évaluation quantitative de la méthode de détection du rivage appliquée avec des observations in situ montre de bonnes capacités, une vérification plus poussée est essentielle. Malheureusement, la quantification de l'influence des macro-marées, du déferlement et de la déferlante, des pentes des plages, etc. nécessite des informations sur les marées, les vagues et les plages, qui ne sont généralement pas disponibles gratuitement.
Taux de changement global pour les littoraux sablonneux
Pour l'application globale présentée ici, nous avons généré des composites annuels sans nuage en utilisant les archives d'images Landsat historiques. La méthode de détection automatisée du rivage produit 33 littoraux mondiaux annuels (1984-2016) avec une résolution côtière de 30 µm. Nous avons ensuite spécifié des transects à un espacement longitudinal de 500 m, et déterminé le point d'intersection de chaque transect avec les rives annuelles susmentionnées, ce qui fournit une séquence de positions riveraines par transect. Le taux de changement du rivage (m / an) à chaque transect est ensuite calculé en appliquant une régression linéaire à toutes les positions riveraines à cet endroit. Idéalement, un poste de SDD est disponible pour chaque transect chaque année. Cependant, la disponibilité des images satellites et de la couverture nuageuse peut limiter le nombre de positions SDS. Fait encourageant, cependant, 82 % de tous les transects sablonneux comprennent plus de dix positions riveraines annuelles entre 1984 et 2016. Néanmoins, pour éviter des taux de changement de rivage irréalistes, nous avons appliqué les filtres suivants à tous les transects sableux:
Les transects contenant moins de 5 (sur 33) points de données SDS ainsi que les transects avec une couverture temporelle inférieure à 7 ans sont omis de l'analyse (9% de tous les transects).
Les transects situés au-delà des latitudes 60 ° N et 50 ° S (y compris le Groenland et l'Antarctique) sont omis de l'analyse en raison de la couverture de glace possible (9 % de tous les transects).
Dans la régression linéaire, les valeurs aberrantes sont identifiées en tant que points SDS s'écartant plus de trois fois l'écart-type et donc non pris en compte dans la régression. Si le nombre de points de données restants est inférieur à 5 points, le transect est omis de l'analyse.
L'application de ces filtres réduit l'ensemble de données global à 81 % du nombre initial de transects sableux. La méthode de régression linéaire utilisée pour quantifier les taux de changement du littoral à long terme donne de bons résultats en ce qui a trait aux tendances des changements chroniques du rivage sablonneux, ce qui concorde avec les constatations de Crowell et al. Cependant, plusieurs transects ont été caractérisés par des changements instationnaires dans les positions SDS pour lesquelles d'autres méthodes pourraient être plus appropriées. En fin de compte, plus de 60% des 2,2 millions de transects présentent une bande passante d'incertitude inférieure à 50% du taux linéaire, ce qui peut être considéré comme un indicateur de la représentativité de la méthode de régression linéaire.
RépondreSupprimerLes taux de changement du littoral, présentés à une résolution côtière de 500 mètres le long de la côte du monde, seront rendus publics et seront accessibles sur le site Web interactif à l'adresse: http://shorelinemonitor.deltares.nl.
Définir les points chauds
Afin d'éviter les points chauds localisés, on a veillé à ce que chaque point chaud d'érosion / accrétion comprenne au moins 5 km de rivage sableux où tous les transects considérés présentaient des taux de changement érosif ou relutif supérieurs à 0,5 µm / an sur les données de 33 ans. ensemble.
Deux réclamations de terres à grande échelle apparaissent dans les sept premières plages relutives du monde. L'une des raisons est que ces travaux de remise en état des terres consistaient en du sable nu en 2016, et sont donc reconnus comme une vaste plage de sable par notre méthodologie. L'autre raison est que les rivages adjacents ont progressé soit en raison des plans d'alimentation des plages, soit en raison de l'accumulation naturelle de sable dans les zones d'ombre de ces interventions.
https://www.nature.com/articles/s41598-018-24630-6
Les vagues, les courants, les marées, les très grandes marées (upwelling), les sources chaudes éruptives sous-océaniques et sous-marines et les tremblements de terre modifient sans cesse la géographie des côtes dans le monde.
SupprimerChaque seconde ce sont 1,6 million de tonnes de roches, sables, cailloux qui sont bougés et drainés par les océans et les fleuves de la planète, soit une érosion de 53 milliards de tonnes par an. Autrement dit, l'érosion des sols due aux fleuves et océans représente 1 680 tonnes par seconde.
http://www.planetoscope.com/sols/1478-volume-de-roches-affecte-par-l-erosion-des-fleuves-et-oceans.html