- ENTREE de SECOURS -



mercredi 13 décembre 2017

Déforestation : le plus gros des mensonges médiatiques

4 novembre 2017 / Usbek
Par Rémy Prud’homme, Professeur des universités (émérite)

Le champ du climat est fertile en bourdes et mensonges officiels. Dans la petite collection que je fais de ces désinformations, la plus belle pièce était sans doute le rapport d’une commission présidée par Mme Lepage et publiée sous le timbre de la République, qui affirmait que dans le monde en 2014 l’électricité photovoltaïque représente 10% de la production électrique : le vrai chiffre est 0,8%. Madame Lepage multiplie la réalité par douze pour l’aligner sur ses rêves ou sur sa propagande. C’est déjà beaucoup. Mais on a trouvé bien plus gros : une multiplication par mille.

Sur le très officiel site des Républicains En Marche, à la rubrique climat, un titre énorme (avec une faute d’orthographe qui ne l’est guère moins) : Qu’est-ce qu’il se joue réellement aujourd’hui au niveau mondial ?  Et cette affirmation : « 1 km² de forêt disparaît à chaque seconde dans le monde », dont il est facile de vérifier son caractère fallacieux.

1 km² par seconde égale 31,5 millions de km² par an. La meilleure source sur les forêts du monde et leur évolution est un rapport de la FAO (l’Agence des Nations-Unies pour l’Alimentation et l’Agriculture) intitulé: Evaluation des ressources forestières mondiales 2015. Il évalue la surface forestière du globe à 41 millions de km². Et la disparition forestière annuelle à 0,08% de ce total, soit 33 milliers de km². C’est déjà beaucoup, mais c’est à peu près 1000 – mille – fois moins que ce qu’affichent les soi-disant « experts » du climat d’En Marche. A leur décharge, si l’on ose dire, ces experts citent leur source : France 24. Lorsque l’on préfère s’informer auprès d’une télévision d’Etat plutôt qu’auprès de la FAO, on prend des risques avec la réalité

Il y a pire. Informés de leur grossière erreur, les responsables du site et leurs « experts » ont refusé de la corriger. Errare humanum est, sed perseverare diabolicum.

Surtout, ce mensonge et ce refus sont le reflet et le symbole d’une tendance lourde, qui s’aggrave sous nos yeux. De tout temps, les politiques et leurs partis ont pris quelques libertés avec les faits, maquillant la réalité comme une jolie femme son visage, soulignant ce qui plait et cachant ce qui déplait. A des degrés divers. Assez peu dans les pays anglo-saxons et scandinaves, où les contre-pouvoirs médiatiques et universitaires veillaient. Beaucoup dans les pays communistes, tellement que le public croyait systématiquement le contraire de ce qu’on lui racontait, même lorsque le pouvoir disait la vérité. Moyennement dans les pays intermédiaires comme la France, où une fonction publique compétente et indépendante freinait les excès. C’était hier.

Aujourd’hui, les politiques ne se donnent même plus la peine de maquiller la réalité, ils l’ignorent, la foulent aux pieds, l’instrumentalisent, et l’inventent. En écrivant que 1 km de forêt disparaît à chaque seconde, le site du parti au pouvoir se moque bien de la déforestation. Le parti n’est pas au service des forêts, il utilise les forêts au service du parti. Il veut principalement faire peur, de façon à apparaître comme un recours. La recette a longtemps été appliquée par les églises : l’enfer qui vous attend est horrible, voyez les tableaux qu’en fait Jérôme Bosch; pour y échapper, faites-nous confiance. Ce discours s’adresse aux tripes, dans le meilleur des cas au cœur, jamais à la raison. Les responsables d’En Marche qui parlent du climat ne sont pas des experts du climat, mais des experts de la communication. Ils ne cherchent pas à dire le vrai, mais à convertir. On a même inventé un mot : « post-vérité », pour décrire cette mise à la poubelle du souci des faits et des réalités.

Pour les benêts qui croient encore à la science, une désinformation climatique reste une désinformation. Afin d’enrichir ma collection, j’invite à déjeuner – dans un restaurant non-végétarien – le premier ou la première qui m’apportera une désinformation plus grosse encore que celle repérée ici.

22 commentaires:

  1. Ne pas oublier que la coupe des arbres ou leur mort sur pied n'est PAS remplacée forcément par des déserts !! mais ces coupes sont NÉCESSAIRES afin de pouvoir nourrir les habitants. Et, à savoir que les plantes, plants de tomates, salades ou bananiers produisent aussi de l'oxygène et absorbent aussi (parfois plus que les arbres) le gazcarbonique.

    RépondreSupprimer
  2. L'administration Trump va abroger le plan climat d'Obama

    10 Octobre 2017
    PAR AWP

    L'administration Trump va rayer le "Clean Power Plan", signé par Barack Obama en 2015, qui a pour but d'accélérer la transition énergétique.


    L'administration Trump va mettre aux chiottes une mesure phare de l'ex-président Barack Obama sur le climat, mettant en oeuvre une promesse de campagne du candidat républicain pour la relance de l'industrie minière américaine, dénoncée par les écologistes.

    Le "Clean Power Plan" (plan pour une énergie propre) a été signé par Barack Obama en 2015. Il a pour but d'accélérer la transition énergétique et impose aux centrales thermiques des réductions de leurs émissions de gazcarbonique de 32% d'ici 2030 par rapport à 2005.

    S'il entrait en vigueur, il se traduirait par la fermeture de nombreuses centrales à charbon, les plus anciennes et les plus polluantes. Il est cependant bloqué par la justice, saisie par une trentaine d'Etats, majoritairement républicains.

    "La guerre contre le charbon est terminée", a lancé lundi le chef de l'Agence américaine de protection de l'Environnement (EPA), Scott Pruitt, lors d'un discours dans le Kentucky, une terre minière de l'est du pays.

    "Demain (mardi) à Washington, je signerai un projet de décision pour abroger le soi-disant Clean Power Plan de la précédente administration", a dit M. Pruitt, un climato-sceptique qui a combattu les initiatives environnementales de M. Obama.

    Ce plan, a-t-il affirmé, "était fait pour désigner les vainqueurs et les perdants (...) La précédente administration utilisait tout son pouvoir et son autorité pour faire que l'EPA désigne les vainqueurs et les perdants et la façon dont on fabrique de l'énergie dans ce pays. C'est mal".

    En 2015, alors procureur général de l'Oklahoma, il avait estimé que ce plan était "une tentative illégale d'accroître le pouvoir des bureaucrates fédéraux sur la politique énergétique des Etats".

    Règlementations 'inutiles'

    Avant la signature du Clean Power Plan, en août 2015, "les centrales thermiques étaient autorisées à déverser des quantités illimitées de polluants au carbone dans l'atmosphère", a rappelé l'Association des scientifiques inquiets.

    "Aucune règle n'existait pour limiter leurs émissions de dioxyde de carbone, la première cause du réchauffement climatique", a-t-elle ajouté.

    Le président Donald Trump avait signé en mars un "décret sur l'indépendance énergétique", qui ordonnait un réexamen du plan climat de son prédécesseur, estimant que beaucoup de réglementations environnementales étaient "inutiles et destructrices d'emplois".

    RépondreSupprimer
  3. Il a plusieurs fois mis en doute la réalité du réchauffement de la planète et le rôle des activités humaines dans ce dernier et promis de relancer l'industrie du charbon pour redonner du travail aux mineurs. Selon l'Association nationale des mines, l'abrogation du Clean Power Plan permettrait de sauver 27.700 emplois de mineurs et près de 100.000 sur l'ensemble de la chaîne d'utilisation du charbon.

    Le président a également annoncé début juin sa décision de quitter l'accord de Paris sur le climat, signé en décembre 2015 par 195 pays pour limiter la hausse du réchauffement climatique, au nom de la défense des emplois américains et de son slogan "l'Amérique d'abord".

    Le charbon reste une composante importante du paysage énergétique américain mais ce minerai ne représentait plus en 2015 que 21% de la fourniture d'énergie aux Etats-Unis, contre 32% pour le gaz naturel, 28% pour le pétrole et dérivés, 11% pour les énergies renouvelables et 9% pour le nucléaire, selon les chiffres de l'agence américaine pour l'énergie (EIA).

    Sur la seule année 2015, la production de charbon américaine a diminué de plus de 10%, tombant à ses plus bas niveaux depuis 1986, et le nombre d'emplois dans ce secteur est passé de 88.000 en 2008 à 66.000 en 2015, selon l'EIA.

    Les Etats-Unis sont toutefois le deuxième plus gros émetteur de gaz à effets de serre derrière la Chine.

    http://www.bilan.ch/economie/ladministration-trump-va-abroger-plan-climat-dobama

    RépondreSupprimer
    Réponses
    1. Contrairement à d'autres pays du monde où c'est la mafia qui dirige et interdit aux scientifiques de s'exprimer, les États-Unis ont enfin tenu compte du poids que représente les scientifiques internautes dans le monde et écouté ce qu'ils disent.

      A savoir que depuis TOUJOURS et pour TOUJOURS, TOUS les gaz se recyclent. TOUS ! Il y a aujourd'hui des milliards de volcans en activité dans le monde (terrestres ou sous-marins) qui réchauffent les courants océanique tout en émettant des gaz qui montent à la surface. Ceci n'est pas nouveau et existe depuis des millions d'années. Malgré cela, les glaces de l'Arctique (pôle Nord) continuent de s'accroitre en surface et en épaisseurs chaque années.

      Supprimer
  4. La modélisation du climat, science ou scientisme ?

    21 novembre 2017 / Usbek

    Les prévisions climatiques à très long terme (2100) sont établies à l’aide de modèles qui ne sont rien d’autre des logiciels très complexes, dont le but est de reproduire le comportement du climat terrestre.

    Comme on ne peut pas décrire ce qui se passe en tous les points de la terre, celle-ci est découpée en mailles de quelques centaines de kilomètres de côté. Les modèles utilisés par le GIEC pour son cinquième rapport d’évaluation (2013) avaient des résolutions relativement grossières (supérieures à 100 km). La situation évolue toutefois rapidement et les modèles climatiques les plus récents auraient une résolution plus fine (de l’ordre de 20 km).

    Les premiers modèles ne prenaient en compte que la circulation de l’atmosphère. Les modèles actuels intègrent l’océan et sont appelés pour cela « modèle de circulation générale atmosphérique et océanique » (MCGA). Les modèles utilisés par le GIEC s’inscrivent dans un projet dit CMIP (Coupled model intercomparison project) dont la cinquième phase (CIMP5) associe 20 centres climatiques et près de 50 modèles climatiques.

    Que prédisent les modèles ?
    Les modèles prédisent l’augmentation de la température sur la période 2000-2100 en fonction de quatre scenarios (RCP) de concentration de GES dans l’atmosphère. Selon le scenario le plus pessimiste, dit « business as usual » (celui où l’on ne fait rien), la température de la planète augmenterait sur la période 2000-2100 de 4,8°C, comme le montre le diagramme ci-dessous issu du cinquième rapport du GIEC.

    - voir graphique sur site -
    GIEC temperature
    Source : GIEC (AR5)

    Modéliser le climat : une entreprise démiurgique
    Exploiter un modèle climatique, c’est faire tourner sur elle-même un Terre virtuelle, munie d’une atmosphère, d’océans, d’un relief, la faire orbiter autour du soleil et enregistrer ce qui s’y passe pendant 1 an, 10 ans, 100 ans, c’est donc l’ensemble des mécanismes intimes d’échange de matière et de chaleur entre l’atmosphère, les océans et les terres émergées, ainsi que les nombreuses boucles de rétroaction qu’il faut introduire dans les modèles pour pouvoir établir des prédictions.

    Compte tenu de la diversité des processus (rayonnement, convection, formation des nuages, fonte des glaciers, transpiration des plantes, ruissellement, infiltration des eaux dans le sol, etc.), de la multiplicité des échelles spatiales (du centimètre pour la turbulence de la couche limite à des ondulations de 10000 kms pour les zones de haute et de basse pression) et temporelles (de la seconde pour les vagues de surface à plusieurs siècles pour les courants océaniques), et des interactions que les diverses parties du système climatique ont les unes sur les autres, l’entreprise des modélisateurs apparaît comme démiurgique (ou pour le dire plus sobrement, relève du scientisme).

    RépondreSupprimer
  5. Rappelons de plus que le climat est un système chaotique et que par conséquent toute prévision à long terme est impossible ce que le GIEC reconnaissait déjà dans son rapport de 2007[1].

    Les principales incertitudes
    Le paramétrage des modèles

    Les processus mis en jeu dans la machine climatique n’étant pas tous connus ou compris, ou bien ayant lieu à des échelles beaucoup plus fines que les mailles d’une centaine de kilomètres du modèle (développement de nuages, turbulence, échanges avec la surface), les modélisateurs ont donc recours à des paramètres ajustables (une dizaine) qui ont une signification statistique et compensent les incertitudes. La convection est un bon exemple de phénomène atmosphérique dont la complexité et l’échelle spatiale (10 kms) interdit une représentation exacte et qui sera donc pris en compte par la paramétrisation. Dans leur essai « Incertitudes sur le climat » (Belin 2013), Katia et Guy Laval décrivent ainsi le travail des modélisateurs : « ainsi, si le rayonnement solaire est trop faible à la surface de la terre, le modélisateur changera le paramètre contrôlant l’absorption de ce rayonnement par les nuages pour remédier à ces défauts. Il pourra jouer sur le paramètre des aérosols pour réduire le rayonnement solaire, et refroidir la température de surface si elle est trop élevée. Si les précipitations ne sont pas assez fortes, il jouera sur la représentation de la convection pour obtenir des pluies plus fortes ». Comme le dit M. de Rougemont, cette manière de faire conduit au tautologisme : « j’ai raison parce que j’ai raison, le modèle, artefact de l’homme incluant toutes ses impérities, sert alors de référence : si le système ne répond pas comme le prévoirait une tendance calculée sui generis, alors toute déviation constatée sera anthropique ».

    La surestimation de l’humidité dans l’atmosphère, une faiblesse partagée par tous les modèles.

    L’humidité relative de la troposphère est nettement surestimée dans les modèles. Les observations confirment que l’atmosphère n’est pas saturée, spécialement dans les couches de la troposphère où l’humidité est fortement variable, et qu’elle peut être de l’ordre de 30 % seulement estiment Katia et Guy Laval (en page 209 de leur essai ) pour lesquels ce biais est dû à une représentation irréaliste des cellules convectives, processus par lequel l’eau évaporée est transportée de la surface vers la troposphère qui engendre trop de diffusion et humidifie la haute et moyenne troposphère. La surestimation de la vapeur d’eau conduit à amplifier le réchauffement dû à l’augmentation de la concentration des gaz à effet de serre.

    La représentation des nuages, le grand casse tête des modélisateurs

    RépondreSupprimer
  6. Le rôle des nuages dans les modèles reste une question très controversée parmi la communauté scientifique et constitue une source réelle d’incertitude. Les nuages interviennent dans les rétroactions susceptibles d’amplifier ou d’atténuer la réponse du climat aux variations des gaz à effet de serre. Ils sont responsables d’une grande part des écarts dans les résultats des modèles sur l’effet du doublement de la concentration de gazcarbonique.

    L’évaluation de l’évaporation sur les continents au cœur de la difficulté pour évaluer les sécheresses

    Pour les études climatiques il est essentiel d’évaluer l’évaporation pour connaître la température d’été de nos régions et pour évaluer le risque de sécheresse des sols. Quand la terre se réchauffe, elle revoie de l’énergie à l’atmosphère et atteint une température d’équilibre. Cette énergie peut prendre deux formes : la conduction thermique qui réchauffe la couche d’air superficielle, ou la perte d’énergie par évaporation. Or la température d’équilibre varie de quelques degrés (et même de plus de 10 °C en situation de sécheresse des sols) quand on modifie le rapport entre ces deux pertes d’énergie. Si sur l’océan la répartition entre ces deux processus est bien évaluée, cette répartition est plus difficile à simuler sur les continents car le sol comporte un couvert végétal l’évaporation s’effectuant par la transpiration des plantes. Il faut donc calculer le flux d’eau que les racines sont capables de pomper dans le sol, puis de le transférer vers le feuillage, où l’évaporation aura lieu à travers les pores de la feuille, plus ou moins ouverts selon les conditions environnementales. Si de plus, le sol et la zone racinaire s’assèchent, les plantes en situation de stress hydrique freinent l’évapotranspiration en fermant leurs stomates pour diminuer le flux entre le système racinaire et les feuilles de plante.

    Calculer le flux d’eau que les racines sont capables (en fonction des propriétés physiologiques des plantes) de pomper dans le sol, puis de le transférer vers le feuillage où l‘évaporation aura lieu à travers les pores de la feuille plus ou moins ouvertes selon les conditions environnementales, tel est le défi que doivent relever les modélisateurs du climat.

    Les boucles de rétroaction, à l’origine des plus grands écarts entre les modèles

    Les estimations fournies par les modèles divergent considérablement lorsqu’elles concernent la puissance des différentes rétroactions du système climatique (GIEC 2007).

    Les principales boucles de rétroaction sont les suivantes :

    la rétroaction vapeur d’eau : l’augmentation de la température tend à augmenter le contenu en vapeur d’eau de l’atmosphère ce qui augmente l’effet de serre et la température de surface;
    la rétroaction des nuages : les changements de vapeur d’eau et de circulation atmosphérique modifient la couverture nuageuse et ses propriétés radiatives, et donc la fraction de rayonnement solaire qu’ils réfléchissent;
    la rétroaction due à l’albédo de surface : l’augmentation de la température de surface peut changer les propriétés radiatives de la surface (car la neige ou la glace de mer fondent plus vite), qui absorbera plus de rayonnement solaire et réchauffera d’avantage son environnement.

    RépondreSupprimer
  7. Un doublement de la concentration de gazcarbonique seul (sans rétroactions), induirait une augmentation de température de l’ordre de 1°C. ; cela fait consensus dans la communauté scientifique. Or tous les modèles postulent une rétroaction positive de la vapeur d’eau selon le mécanisme suivant : plus il y a de gazcarbonique plus la température augmente, plus la température croît et plus la teneur en eau dans I ‘air s’élève conduisant à une recrudescence de la température : cette boucle de rétroaction augmente donc le réchauffement. C’est sur cette hypothèse d’une rétroaction positive de la vapeur d’eau que le GIEC en arrive à la conclusion qu’un doublement de la teneur en gazcarbonique à une augmentation de température pouvant aller jusqu’à 4,8 °.

    L’existence d’une rétroaction positive de la vapeur d’eau est mise en question : l‘analyse de diverses mesures effectuées par satellites indiquerait une augmentation de température de O,8°C et donc une rétroaction «négative» car plus faible que 1,1°C (Lindzen et Choi, 2009). Cette rétroaction négative s’expliquerait ainsi : l’augmentation de température participe à une diminution de la couverture nuageuse qui, d’une part, réfléchit moins le rayonnement solaire incident et, d’autre part, laisse davantage passer de rayonnement infrarouge. Le résultat global, sur base des observations, semble être un abaissement de la température du globe (« effet Iris »).

    Les modèles surchauffent
    Pour un même scénario d’émissions, les modèles se contredisent mutuellement et divergent de plus en plus des mesures, comme me montre le diagramme ci dessous issu du 5ème rapport du GIEC (page 981).

    - voir graphique sur site -
    GIEC modèles
    Source : GIEC AR5

    Pour vérifier la validité des modèles, l’évolution du climat doit être reconstruite a posteriori (technique du « hindcasting » ou validation à rebours ). Il est alors possible de comparer les résultats des modèles avec la réalité observée. J. C. Christy, Professeur à l’Université d’Alabama (Huntsville) s’est livré à cet exercice et a présenté ses conclusions lors d’une audition par le Sénat américain en 2016. La reconstruction faite avec 102 modèles issus d’institutions différentes de par le monde, comparées avec des séries d’observations faites par des ballons sondes et des satellites entre 1979 et 2016 apparaît dans le diagramme suivant (commenté en français par M. de Rougemont dans cet article).

    RépondreSupprimer
  8. John Cristies

    Sur les 38 dernières années l’écart entre la courbe de réchauffement des modèles et celle des données d’observation est très significatif démontrant de la façon la plus évidente que les modèles sont trop sensibles aux émissions supplémentaires de gaz à effet de serre.

    Pas de Hot spot sous les tropiques

    John Christy a réitéré devant la Chambre des représentants en 2017 en présentant les courbes de température de la moyenne troposphère sous les tropiques.

    - voir graphique sur site -

    Comparaison de l’évolution des anomalies de température de la troposphère moyenne entre la moyenne des 102 modèles climatiques du programme CIMP5 utilisés par le GIEC (courbes rouge) et les observations fournies par les ballons sondes (courbe bleue) et les satellites (courbe verte) pour la période 1979-2015.

    - voir graphique sur site -

    Dans le modèle d’effet de serre, la troposphère (partie basse de l’atmosphère) devrait se réchauffer au moins autant que la Terre. Or les satellites et les ballons d’observation montrent une élévation de température de la troposphère au dessus des tropiques bien moins élevée que celle de la Terre (en fait 2,4 fois plus petite que ne l’indiquent les modèles). Le « point chaud » au dessus des tropiques qui constituerait la seule et authentique signature de l’effet de serre et donc absent comme l’explique Roy Spencer dans cet article et le physicien François Gervais dans son essai (« L’innocence du carbone ») : « les mesures ne confirment pas l’existence d’un tel « point chaud », ni d’ ailleurs ne témoignent d’ un quelconque échauffement significatif dans la haute troposphère sous les tropiques depuis trente ans. (D.H. Douglass et al 2004-2008). C’est en revanche un point plus froid qui est observé (J.R. Christy et al ; 2010), en contradiction avec les modèles retenus par le GlEC ».

    Vincent Gray ancien professeur émérite à l’université du Colorado et spécialiste de la prévision des ouragans (décédé en 2016) indiquait en 2006 dans cet article que la température de la troposphère n’a jamais augmenté et que cela dément complètement l’effet de serre du gazcarbonique. Il concluait : « Tous les modèles de circulation globale qui prédisent le futur sont faux. Ils ne prennent pas en compte les variations d’humidité dans la haute troposphère et la couverture nuageuse. Ils prévoient des humidités et des températures trop élevées, irréalistes, dans la haute atmosphère, en cas de doublement du taux de gazcarbonique. Ils négligent à tort les oscillations multi décennales des océans. Ces modèles sont notre pire guide pour prévoir Je futur ».

    Doit-t- on confier notre avenir à des modèles ?
    Nous laissons la conclusion à trois scientifiques :

    Selon Pierre Morel[2] fondateur du Laboratoire de Météorologie Dynamique et ancien secrétaire général du programme mondial de recherche sur le climat, les modèles climatiques ne sont pas fondés sur les lois de la physique :

    RépondreSupprimer
  9. « Aucun modèle ne peut, en l’état actuel de l’art, représenter fidèlement la totalité des processus physiques en Jeu. Au contraire, ces modèles sont fondamentalement empiriques et font nécessairement appel à des paramètres arbitraires qui doivent être ajustés … Par conséquent, actuellement, les modèles de la science climatique théorique, tout cela est engagé sur une voie sans issue… malheureusement, les modélisateurs, qui ont une connaissance détaillée des codes numériques et formules physiques, n’ont plus une compréhension approfondie du fonctionnement de l’environnement réel dans tous ses aspects physiques. Je dois dire qu’il est facile de perdre de vue la multiplicité des processus dynamiques, physiques, chimiques, géologiques qui influencent le climat ».

    Paul Deheuvels, Membre de l’Institut, Directeur du LSTA à l’Université Pierre et Marie Curie (UPMC) écrit dans un article publié sur le site du CNRS :

    « Les modèles sur lesquels s’appuient la plupart des conclusions des climatologues paraissent ajustés de manière assez sommaire, et sur des données, le plus souvent indisponibles. Leurs conclusions sont présentées par des organismes officiels, tel que le GIEC, comme vérité d’Evangile, sans que de telles affirmations soient systématiquement assises sur des vérifications statistiques crédibles ».

    Citons enfin l’océanographe américain Carl Wunsh qui dans un article publié dans la revue PNAS [3](2013) fustigeait la prétention des prévisions climatiques à long terme

    « Même si le climat s’avérer théoriquement prévisible (ce qui est tout sauf certain) la quasi-absence d’observations adéquates empêchera sa compréhension, et par là même tout espoir de prévisions utiles ».

    [1] In climate research and modelling, we should recognise that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible (IPCC Working Group I: The Scientific Basis §14.2.2.2 -2007)

    [2] P. Morel : « Réchauffement planétaire et science du climat, conférence au Bureau des Longitudes, 7 octobre 2009) http://www.canalacademie.com/ida5110-Rechauffement-planetaire-et-science-du-climat.html

    [3] Carl Wunsch : La changement climatique : un problème inter générationnel, PNAS 2013. Traduction française sur ce site.

    https://www.climato-realistes.fr/modele-climat-scientisme/

    RépondreSupprimer
  10. Une neige lourde et abondante recouvre Londres tandis que des vents à 190 km/h produisent des tourbillons neigeux

    Adapt 2030
    mar., 12 déc. 2017 22:31 UTC

    Des conditions climatiques inhabituelles ainsi qu'une instabilité croissante du jet-stream due à l'intensification de l'intensité du minimum solaire, attirent l'air chaud du désert vers les Alpes avec des températures de 16° C / 50° F, plongeant ainsi le Royaume-Uni au sein d'une merveilleuse terre enneigée, la neige bloquant les autoroutes vers Londres. En Pologne, les vents soufflent si forts que des trombes de neige apparaissent dans les montagnes. En Italie ce sont 100, 120 cm de neige et des vents de 190 km/h qui balayent la Méditerranée.

    Je ne saurais trop insister sur la quantité de neige qui tombera probablement dans le nord du Pays de Galles et les Midlands du Nord ce dimanche. Jusqu' à 30 cm de neige est possible dans certaines régions. Certains endroits seront complètement coupés, ce qui causera des perturbations importantes.

    https://fr.sott.net/article/31533-Une-neige-lourde-et-abondante-recouvre-Londres-tandis-que-des-vents-a-190-km-h-produisent-des-tourbillons-neigeux

    RépondreSupprimer
  11. Belgique: 300 vols annulés à l'aéroport de Bruxelles à cause de la neige

    20 minutes
    mar., 12 déc. 2017 22:20 UTC

    Les chutes de neige ont aussi causé des centaines de kilomètres d'embouteillages sur les autoroutes autour de Bruxelles et en Flandre, dans le nord du pays...

    Des chutes de neige ont entraîné lundi quelque 300 annulations de vols à l'aéroport de Bruxelles, alors que de nouvelles chutes de neige sont prévues dans les prochaines heures sur la capitale de la Belgique.

    Environ 300 vols ont dû être annulés à cause de la neige - soit la moitié du programme prévu - et une centaine d'autres retardés, a précisé Florence Muls, la porte-parole de Brussels Airport, citée par l'agence Belga, peu après 18h.

    Brussels Airport, la société exploitante de l'aéroport, continuait de conseiller aux voyageurs de vérifier si leur vol est programmé avant de se déplacer. « Si votre vol a été annulé, merci de contacter votre compagnie aérienne avant de venir à l'aéroport », a demandé la société exploitante Brussels Airport aux voyageurs, via son compte Twitter.

    Des centaines de kilomètres d'embouteillages dans le nord du pays

    Après la tempête de neige de la matinée, le trafic est resté perturbé toute la journée dans cet aéroport, en raison des opérations de déneigement, de dégivrage des avions ou du manque de visibilité. L'aéroport international de Bruxelles-Zaventem est le plus emprunté de Belgique, et une des principales plateformes du transport aérien en Europe avec notamment Londres, Paris et Francfort en Allemagne.

    Les chutes de neige ont aussi causé des centaines de kilomètres d'embouteillages sur les autoroutes autour de Bruxelles et en Flandre, dans le nord du pays. Les tunnels routiers qui traversent la capitale belge ont par ailleurs été fermés en fin de matinée, en raison de la chaussée glissante.

    https://fr.sott.net/article/31531-Belgique-300-vols-annules-a-l-aeroport-de-Bruxelles-a-cause-de-la-neige

    RépondreSupprimer
  12. Le gaz naturel liquéfié, rempart contre la Russie ?

    Selon l’administration américaine, la Russie utiliserait l’énergie, notamment le gaz, « comme une arme pour contraindre, intimider et influencer » les pays européens.

    Par Michel Gay
    12 DÉCEMBRE 2017

    Une mesure adoptée en juillet 2017 par la Chambre des représentants des États-Unis vise à promouvoir le gaz naturel liquéfié (GNL) en Europe pour améliorer sa sécurité énergétique et ainsi contrer l’influence de la Russie. Son objectif est aussi (accessoirement…) de soutenir le développement de l’infrastructure gazière américaine.

    Selon l’administration américaine, la Russie utiliserait l’énergie, notamment le gaz, « comme une arme pour contraindre, intimider et influencer » les pays européens.

    La thèse de doctorat de Poutine en 1997 se terminait par ces mots : « Pour que la Russie émerge de sa crise profonde et atteigne sa puissance antérieure, les matières premières du pays constituent le facteur le plus important de son développement à court terme. (…) Son avenir dépend de l’ampleur de l’utilisation du potentiel des richesses naturelles« .

    La Russie souhaite actuellement atteindre la domination mondiale dans trois secteurs critiques : le pétrole (Rosneft), le gaz (Gazprom), et l’énergie nucléaire (Rosatom).

    LE GAZ NATUREL EUROPÉEN EN BAISSE

    La production européenne de gaz naturel est en baisse, laissant l’Europe de plus en plus vulnérable aux aléas des marchés d’importation. La Russie est devenue le premier exportateur de gaz vers l’Europe avec 35% du gaz consommé sur le marché européen en 2016, suivie par la Norvège (23%) et l’Algérie (13%). La plus grande partie de ce gaz est acheminée par des gazoducs (pipelines datant de l’ère soviétique) qui traversent la Russie et l’Ukraine où les risques géopolitiques sont importants.

    La compagnie russe Gazprom, qui contrôle à la fois les ressources et les artères du gaz, veut doubler son gazoduc appelé « North Stream » à travers la mer Baltique vers l’Allemagne.

    Le gaz de schiste des États-Unis est quasiment identique au gaz naturel européen ou russe. Il est principalement composé de méthane. Ce gaz est liquéfié (à moins 160°C) dans les terminaux puis il traverse l’Atlantique par bateaux (méthaniers) vers le marché européen sous la forme de GNL.

    RépondreSupprimer
  13. SORTIR LES RUSSES DU MARCHÉ DE L’ÉNERGIE ?

    Les transports par la mer sont moins exposés aux risques géopolitiques que les gazoducs traversant plusieurs pays sur des milliers de kilomètres.

    Mais, en 2016, le GNL provenant de différents pays (principalement du Qatar) n’a représenté que 10% du marché européen.

    Les États-Unis ont aussi exprimé leur soutien au gazoduc du « corridor sud » qui partirait du champ de gaz de Shah Deniz (au large de la côte de l’Azerbaïdjan) jusqu’en Europe, en passant par la Géorgie et la Turquie.

    En octobre 2017, le ministre russe des Affaires étrangères, Sergueï Lavrov, a déclaré que l’attitude des Américains marquait une volonté à peine voilée de « sortir la Russie des marchés de l’armement et de l’énergie » alors que, selon Lavrov, il n’y a aucune preuve de son ingérence en Europe ou aux États-Unis.

    LE FOOTBALL GÉOPOLITIQUE

    L’énergéticien allemand Wintershall, impliqué avec Gazprom dans le gazoduc North Stream, a demandé à Washington d’éviter de jouer au « football géopolitique« dans le secteur énergétique européen.

    De son coté, la Commission européenne travaille sur des mécanismes de diversification d’approvisionnement en durcissant les règles concernant les importations par gazoducs. L’objectif affiché est d’améliorer la concurrence avec le transport par voie maritime pour favoriser le développement du GNL.

    Le gaz russe, norvégien, et américain (liquéfié ou non) a encore de beaux jours devant lui. Le développement des énergies renouvelables intermittentes (notamment l’éolien et le solaire) nécessitera toujours de consommer du gaz en secours (pour les nuits avec peu de vent), et encore plus si la production d’électricité nucléaire venait à baisser.

    C’est déjà le cas en Allemagne où, après l’arrêt imposé de plusieurs réacteurs nucléaires, les centrales à gaz (et au charbon) tournent à plein régime, ce dont se réjouissent depuis longtemps les « gaziers » et nos amis… Russes.

    Certes, le GNL permettra une meilleure diversification de nos approvisionnements en gaz, mais notre voisin russe continuera à alimenter les centrales à gaz européennes (notamment allemandes) et à chauffer nos chaumières pendant encore longtemps.

    https://www.contrepoints.org/2017/12/12/305305-gaz-naturel-liquefie-rempart-contre-russie

    RépondreSupprimer
  14. On compte 300.000 experts en IA dans le monde mais des millions sont nécessaires

    Arnaud Lefebvre
    12 décembre 2017


    Le potentiel de l’intelligence artificielle est énorme, mais dans ce secteur, les talents sont rares, indique un rapport du géant technologique chinois Tencent. Selon cette étude du Tencent Research Institute, ce besoin de talents pourrait être énorme. Le monde ne compterait actuellement que 300.000 chercheurs et praticiens de l’IA. Cependant, la demande du marché concerne des millions de postes.

    Ces chiffres sont spéculatifs et l’étude ne fournit pas de détals sur la méthode employée afin d’y aboutir. Néanmoins, ces conclusions rejoignent celles d’autres rapports plus anecdotiques, explique le site The Verge. Partout dans le monde, les grandes sociétés technologiques se plaignent de la difficulté de recruter des ingénieurs experts en intelligence artificielle.

    « Cette demande a fait augmenter les salaires de manière vertigineuse » explique le New York Times. « Une expérience de quelques années dans ce domaine suffit pour prétendre à un salaire de base de 300.000 à 500.000 dollars par an. Les meilleurs spécialistes toucheront quant à eux un salaire d’un million de dollars. »

    Formation
    Selon un laboratoire d’intelligence artificielle indépendant, il n’y aurait au niveau mondial que 10.000 personnes pourvues des compétences adéquates afin de mener à bien de nouveaux projets d’intelligence artificielle.

    Selon Tencent, pour cette discipline, le goulot d’étranglement le plus important serait l’éducation. « Actuellement, de 200.000 à 300.000 chercheurs en IA sont déjà employés dans diverses industries. 100.000 autres personnes seraient par contre encore en formation. Par ailleurs, la fréquentation des formations en intelligence artificielle a explosé au cours des dernières années. »

    « Jusqu’à ce que ce groupe soit diplômé et apparaisse sur le marché du travail, le secteur n’a pas de remèdes face à cette pénurie », indique encore le rapport.

    Selon Tencent, les Etats-Unis, la Chine, le Japon et la Grande-Bretagne sont actuellement les marchés les plus importants de l’intelligence artificielle. Le secteur américain s’est fortement développé par rapport au reste du monde.

    RépondreSupprimer
  15. En termes de talents mondiaux de l’IA, les Etats-Unis sont loin devant. On recense un nombre plus important d’universités américaines qui enseignent l’apprentissage automatique et des sujets connexes ainsi de de startups de l’intelligence artificielle. Dans le monde, on compte 2.600 startups du secteur de l’intelligence artificielle. Un millier d’entre-elles se situent aux Etats-Unis tandis que la Chine en abrite près de 600.

    Cependant, le gouvernement chinois a l’ambition de devenir un leader mondial sur le plan de l’intelligence artificielle d’ici 2030, objectif qui serait réalisable, estime le rapport.

    https://fr.express.live/2017/12/12/y-a-monde-300-000-specialistes-ia-millions-necessaires/

    RépondreSupprimer
    Réponses
    1. (...) Dans le monde, on compte 2.600 startups du secteur de l’intelligence artificielle. Un millier d’entre-elles se situent aux États-Unis tandis que la Chine en abrite près de 600. (...)

      Reste à savoir si dans les 600 le personnel est 10 fois ou 50 fois plus nombreux que les start-ups d'ailleurs qui n'abritent que 3 ou 4 personnes.

      Supprimer
  16. C'est officiel: Le Bitcoin surpasse la "Tulip Mania", et est maintenant la plus grande bulle de l'histoire mondiale

    par Tyler Durden
    12 décembre 2017 09:16


    Il y a un mois, un graphique de Convoy Investments est devenu viral pour montrer que parmi toutes les bulles d'actifs les plus célèbres au monde, le bitcoin traînait seulement derrière l'infâme "Tulip Mania" du 17ème siècle.

    - voir graphique sur site -

    Un mois plus tard, le prix du bitcoin a explosé encore plus, et il est donc temps de se rafraîchir là où se trouve actuellement la course à bulles mondiale bitcoin, et aussi si elle a finalement dépassé les "tulipes".

    Pratiquement, du jour au lendemain, les anciens analystes de Bridgewater, Howard Wang et Robert Wu, qui composent Convoy, ont publié la réponse sous la forme d'une version mise à jour de leur graphique à bulles d'actifs. Dans le nouveau commentaire, Wang écrit que les prix Bitcoin ont encore plus que doublé depuis la dernière mise à jour, et "son prix a maintenant augmenté de 17 fois cette année, 64 fois au cours des trois dernières années et a dépassé celui de la montée néerlandaise. au cours de la même période. "

    C'est vrai: à ce jour, il est officiel que bitcoin est maintenant la plus grande bulle de l'histoire, après avoir surpassé la tulipe de 1634-1637.

    - voir graphique sur site -

    Et avec cela, nous pouvons dire que Mike Novogratz, le pionnier de la cryptographie, a eu raison une fois de plus lorsqu'il a dit que «cela va être la plus grande bulle de notre vie». Ce qui, bien sûr, ne l'empêche pas d'investir des centaines de millions dans l'espace: en admettant que les cryptos sont la plus grosse bulle de tous les temps, "Novo" s'attend également à ce que le bitcoin atteigne 40 000 $.

    "Bitcoin pourrait être à 40 000 $ à la fin de 2018. Il pourrait facilement", a déclaré Novogratz lundi sur "Fast Money" de CNBC. "Ethereum, qui, je pense, a touché 500 $ ou se rapproche, pourrait être triple là où il est aussi."

    Quant à Wang, voici quelques observations supplémentaires:

    Je continue ce sujet et discute un conducteur principal de bulles. Lorsque nous assistons à une hausse spectaculaire des prix des actifs, il y a souvent une lutte interne entre les deux types d'investisseurs en nous. Le premier est l'investisseur axé sur la valeur, «cet investissement devient-il trop cher ?» Le deuxième est l'investisseur dynamique, «suis-je en train de manquer une tendance?» Je crois l'équilibre de ces deux approches, à la fois détermine finalement la propension à un comportement semblable à une bulle. Quand il y a un marché nouveau ou qui évolue rapidement, notre conviction dans l'investisseur de valeur peut s'affaiblir et l'investisseur dynamique peut prendre le relais. Les autres marchés structurellement dépourvus de base d'évaluation sont encore plus sensibles aux mouvements de momentum car le principal indicateur de la valeur future est la perception de la valeur récente par le marché.

    RépondreSupprimer
  17. Nous publierons le reste de la note complète de Wang "Quelles sont les causes des bulles d'actifs?" mais pour l'instant, nous voulions juste vivre un moment de sérénité zen, sachant que nous sommes maintenant à proximité d'une bulle d'actifs dont l'ampleur n'a jamais été observée par l'humanité. Merci les banques centrales !

    http://www.zerohedge.com/news/2017-12-12/its-official-bitcoin-surpasses-tulip-mania-now-biggest-bubble-world-history

    RépondreSupprimer
    Réponses
    1. Le 'Bitcoin' n'est rien d'autre que de 'l'or-papier' (càd sans valeur de référence faute d'or physique) qui peut être présenté tout doré, brillant, scintillant, entretenu à grands frais par des banques qui fabriquent l'argent absent pour le faire monter, puis, un jour, quand les gogos seront assez nombreux à y avoir investi leurs derniers sous... plouf ! $0 ! Çà alors ! (Hahahaha !)

      Supprimer
  18. Oubliez le Bitcoin, le cours du Litecoin a gagné 10.000 % en 12 mois

    Dominique Dewitte
    12 décembre 2017
    Charlie Lee, Litecoin founder


    Le monde financier est ébranlé par les gains quotidiens étonnants du bitcoin. Mais le Litecoin, une autre cryptomonnaie, bénéficie en toute discrétion d’une progression encore plus stratosphérique.

    Le Litecoin est un moyen de paiement en ligne en peer-to-peer, ce qui signifie qu’il permet des paiements presque gratuits à toutes personnes dans le monde quasiment en temps réel. C’est un réseau de transactions mondiales open source, sans autorité centrale. Le réseau est protégé par des formules mathématiques, et permet aux individus de contrôler leurs propres finances.

    Le Litecoin été créé avec l’intention d’améliorer le concept de bitcoin. De ce fait, il présente certaines différences techniques.

    500 % de progression en une semaine

    Au cours des 7 derniers jours, le cours du Litecoin a augmenté de 500 %. Si l’on se réfère au cours qu’il avait il y a un an, la progression est même de 10 000 %. Au cours de la même période, la cote du bitcoin a enregistré une hausse de 2000 %. Mais il ne semble pas y avoir de raison valable. Toutefois, le fait que cette cryptomonnaie ait aussi été cotée sur la plate-forme de transactions Coinbase, à l’instar du bitcoin et de l’Ethereum, est probablement une partie de l’explication. Le Litecoin a donc bénéficié d’un nombre croissant d’utilisateurs sur Coinbase. En outre, cette monnaie est nettement moins coûteuse que le bitcoin est l’Ethereum, ce qui attire les petits investisseurs.

    De même, l’attention que les médias ont accordé au bitcoin en raison de sa cotation sur le marché des contrats à terme de Chicago a suscité l’intérêt des investisseurs pour le Litecoin.

    Qui est Charlie Lee ?

    Le Litecoin a été fondé par Charlie Lee (notre photo), un ancien travailleur de Google diplômé du Massachusetts Institute of Technology. Ces dernières semaines, Lee est apparu dans plusieurs émissions de télévision. Il était invité à donner son avis sur l’avenir de bitcoin et de l’industrie des cryptomonnaies. Il a utilisé cette opportunité pour promouvoir le Litecoin comme moyen de paiement. Selon lui, le bitcoin est plus adapté pour stocker de la valeur que son produit.

    En effet, le Litecoin a doublé de valeur sur la seule journée de mardi. « Acheter des Litecoin est extrêmement risqué. Je m’attends à ce que nous connaissions plusieurs années avec un marché baissier comme celui que nouveau nom juste d’avoir, dans lequel le Litecoin est tombé de 90 % en valeur (de 48 $ à 4 $). Alors si vous ne pouvez pas supporter une chute du Litecoin à 20 % à 20 $, n’achetez pas ! », écrit-il

    https://fr.express.live/2017/12/12/litecoin-progression-cours/

    RépondreSupprimer
    Réponses
    1. Pourquoi ne pas l'avoir appelé 'Le Pigeon' ? Sut-été plus honnête.

      Supprimer