- ENTREE de SECOURS -



vendredi 10 janvier 2020

Que se passe-t-il au dessus de la Sibérie ? Rien de bien rassurant …

le 10 janvier 2020


Lorsque j’ai voyagé il y a deux mois entre Madrid et Tokyo-Narita (13h30 de vol) l’avion a suivi une trajectoire en apparence rectiligne (dans les faits curviligne) entre son point de départ et son point d’arrivée en se dirigeant d’abord vers le nord pour survoler l’Allemagne, le Danemark puis le sud de la Finlande et enfin l’interminable Sibérie en passant au dessus d’Arkangelsk, de Norilsk, puis au sud de Yakutsk, au dessus de Khabarovsk et pour survoler enfin la Mer du Japon. L’aéronef dont l’altitude de croisière est de 13000 mètres passe brièvement au nord du cercle polaire entre la Mer Blanche et Yakutsk dans la région de Norilsk. Le voyage débute à 12h30 heures, heure locale, à Madrid et au delà de la Finlande c’est l’obscurité totale jusqu’à la réapparition d’une pâle lueur en direction de l’est pour atterrir à Narita vers 10 heures du matin.

J’étais assis près d’un hublot du côté bâbord de la cabine, donc exposé au nord, et j’ai pu saisir ce bref moment où la Terre porte une ombre vers l’ouest alors que le Soleil n’est pas encore au dessus de l’horizon. Mais ce n’est pas ce qui est intéressant dans ce cliché riche d’enseignements. Ce qui est frappant est la couche claire située très haut au dessus de l’horizon, couche éclairée par le Soleil et prenant une couleur légèrement rose probablement du fait que l’horizon à l’est est rouge en raison du lever du Soleil en raison du phénomène physique appelé diffusion de Rayleigh (lien). En considérant un angle de vision de l’appareil de photo, un Fuji X10, de 30 degrés, une appréciation de la courbure de la Terre très approximative que j’ai négligé peut-être à tort et tenant compte de l’altitude de vol de 13000 mètres, la ligne d’horizon doit se trouver à environ 400 km de l’avion (voir les liens en fin de billet). L’angle de l’ombre portée par la Terre par rapport à la ligne d’horizon (en première approximation une ligne et non une courbe compte tenu des fluctuations nuageuses de basse altitude) est égal à environ 30 degrés. Il est donc possible de déduire l’altitude de cette bande claire qui est totalement invisible si on se penche vers le hublot et que l’on regarde vers le haut : le ciel était toujours complètement noir.

Après un calcul simple en utilisant un double décimètre posé sur l’écran de mon ordinateur j’ai trouvé que cette bande claire se trouvait à une altitude médiane d’environ 70 kilomètres et son épaisseur, puisqu’on la voit par la tranche, est difficile à apprécier compte tenu de la courbure de la Terre et donc de la courbure de cette couche si celle-ci est uniformément répartie. De plus cette épaisseur semble plus importante au fur et à mesure qu’on s’approche en direction de l’est encore une fois en raison de la diffusion de Rayleigh des rayons solaire. Il s’agit d’un phénomène de diffusion de la lumière solaire et c’est ce détail qui prouve que cette couche claire bien visible est constituée de micro-cristaux de glace qui réfléchissent la lumière du Soleil dans toutes les directions provoquant un épaississement apparent de la couche dont il est question dans la direction du lever du Soleil. Si cette couche n’existait pas il n’y aurait pas ce phénomène de réflexion solaire ni de diffusion qui s’accroit dans la direction de l’est.

Pourquoi donc arrive-t-on à voir cette accumulation de cristaux de glace ? Tout simplement parce que sa perception visuelle se fait par la tranche : il faut donc une accumulation de cette matière probablement très ténue diffusant la lumière solaire sur des dizaines de kilomètres pour qu’elle soit vraiment visible et seulement visible depuis un avion volant à 13000 mètres d’altitude. Je doute que les astronautes de la station spatiale soient capables de la voir.

Cette perception visuelle rendue possible de par la position de l’observateur en altitude apporte une preuve qu’il existe donc bien à environ 70 kilomètres d’altitude des cristaux de glace qui se forment mais comment cela est-il possible ? Il y a très peu de molécules d’eau à une telle altitude et pour que celles-ci s’agrègent et forment un micro-cristal de glace la présence d’un « noyau de nucléation » est nécessaire. Ce noyau de nucléation, terme plutôt réservé aux chimistes quand ils étudient la formation de colloïdes, est dans ce cas un ion chargé positivement ou négativement, peu importe, qui va attirer par attraction électrostatique ces molécules d’eau. Les molécules d’eau présentent naturellement une différence, certes faible mais bien réelle, de charge électrique négative entre l’oxygène et les atomes d’hydrogène de charge positive. Par exemple un ion N3+ aura toutes les chances d’attirer une molécule d’eau. La question qui surgit alors est l’origine de tels ions très chargés. Il s’agit tout simplement du résultat du bombardement des hautes couches de l’atmosphère, bien au dessus de cette altitude de 70 kilomètres, par des rayons cosmiques très énergétiques provenant de la galaxie.

Normalement le bombardement cosmique est dévié par le champ magnétique solaire. Or, il se trouve qu’en ce moment même le Soleil est entré dans une phase de sommeil magnétique avec plus de 270 jours consécutifs pratiquement sans aucune tache solaire, le « marqueur » de cette activité magnétique. Il s’agit d’un record depuis l’avènement de l’ère spatiale. Il faut remonter en 1913 pour retrouver de telles conditions. Mais qui peut bien se soucier de la présence d’un tel phénomène … Tout le monde car ces conditions existent tout autour de la planète et pas seulement près des pôles compte tenu de la faiblesse actuelle du champ magnétique solaire. 

Cette couche de glace va contribuer au refroidissement du climat en réfléchissant une partie du rayonnement solaire vers l’espace et comme il faudra attendre l’année 2100 pour qu’à nouveau le Soleil retrouve une activité magnétique normale, selon de nombreux astrophysiciens, alors il y a vraiment beaucoup de souci à se faire.

Ainsi l’observation fortuite d’un phénomène visuel inattendu dans le ciel sibérien peut expliquer, malgré toutes les approximations faites dans son interprétation, beaucoup de choses. Je répète encore que je ne suis pas un spécialiste mais j’ai eu la chance de regarder par le hublot de l’avion au bon moment et au bon endroit et comme je suis encore curieux à mon âge j’ai voulu trouver une explication rationnelle à ce phénomène inattendu que j’observais. Mes lecteurs plus férus que moi dans le domaine de la physique de l’atmosphère peuvent infirmer ou confirmer mon interprétation, je suis ouvert à toute explication détaillée.

Référence pour le calcul de la distance de l’horizon : https://fr.wikipedia.org/wiki/Courbure_terrestre https://en.wikipedia.org/wiki/Rayleigh_scattering . Lire aussi les derniers rapports de Spaceweather.com

28 commentaires:

  1. L'électricité a mystérieusement traversé le sol norvégien lundi?!


    par Tyler Durden
    Ven, 01/10/2020 - 04:15


    Plus tôt cette semaine, le 6 janvier, SpaceWeather.com a rapporté que quelque chose d'inattendu s'était produit dans le sol du nord de la Norvège.

    "Les courants électriques ont commencé à circuler", rapporte Rob Stammes, qui surveille les courants au sol à l'observatoire géophysique Polarlightcenter à Lofoten.

    Cet enregistrement graphique montre la montée subite vers 19:30 UT:

    - voir graphique sur site -

    "Cela semblait être une sorte d'onde de choc", explique Stammes.

    "Mes instruments ont détecté une variation soudaine et forte à la fois des courants au sol et de notre champ magnétique local. C'était vraiment une surprise."

    Le vaisseau spatial ACE de la NASA a également détecté quelque chose.

    - voir graphique sur site -

    Environ 15 minutes avant la perturbation en Norvège, le champ magnétique interplanétaire (FMI) près de la Terre a brusquement basculé d'environ 180 degrés et la densité du vent solaire a plus que 5 fois augmenté.

    La Terre peut avoir traversé un pli dans la nappe de courant héliosphérique - une membrane géante et ondulée de courant électrique ondulant à travers le système solaire.

    De tels croisements peuvent provoquer ce genre d'effets.

    Tandis que des courants traversaient le sol, des aurores remplissaient le ciel. Rayann Elzein a photographié l'éclat de lumière correspondant d'Utsjoki, Finlande:

    "Quelle surprise !" dit Elzein.

    "Les aurores étaient soudaines et dynamiques, avec des aiguilles vertes se déplaçant rapidement et plusieurs franges violettes!"

    Les aurores et les courants au sol étaient causés par la même chose: des champs magnétiques changeant rapidement. Au-dessus de la surface de la Terre, les vibrations magnétiques ont secoué les particules énergétiques lâches, qui ont plu sur la haute atmosphère, créant des aurores où elles ont frappé. Juste en dessous de la surface de la Terre, des vibrations magnétiques ont provoqué la circulation de courants, déclenchant les capteurs au sol de Rob Stammes.

    «Nous ne pouvions pas voir les aurores boréales dans le nord de la Norvège à cause de la couverture nuageuse», explique Stammes, un peu triste.

    "Nous devions être satisfaits de l'électricité sous les pieds."

    https://www.zerohedge.com/geopolitical/electricity-mysteriously-surged-through-norways-soil-monday

    RépondreSupprimer
  2. Les verts intimident les grandes entreprises


    Par Peter Murphy
    9 janvier 2020


    La «grande entreprise» a été décrite dans l'histoire comme intimidante et dominatrice dans la société par rapport aux concurrents, aux travailleurs et aux politiciens des petites entreprises. À certains égards, cela reste vrai. Cependant, la vérité est que la grande entreprise est un tigre de papier, facilement intimidé. Aucun segment de la société ne le sait mieux que les alarmistes du climat vert, et ils intimident progressivement les entreprises américaines. En fin de compte, ces campagnes d'intimidation sont déplacées et nuisibles.

    Sous la pression de groupes comme le Rainforest Action Network, la Hartford Insurance Company a récemment annoncé qu'elle réduisait ses investissements dans les sociétés charbonnières, à la suite d'un engagement de désinvestissement similaire de Liberty Mutual Insurance et d'AXIS Capital. Goldman Sachs, la société d'investissement de Wall Street, a également annoncé récemment qu'elle ne ferait plus de nouveaux investissements dans le charbon ni investirait dans des sociétés de forage pétrolier dans l'Arctique.

    Hartford Insurance, par exemple, a complètement adhéré à l'alarmisme climatique, répétant même le lien supposé entre le réchauffement et la fréquence accrue des tempêtes et des inondations. Il n'y a aucun lien de ce genre, comme l'explique CFACT.

    L’annonce du désinvestissement de Goldman Sachs, heureusement, n’est pas restée sans réponse. L'État de l'Alaska, avec une économie fortement dépendante de la production de pétrole, peut également mener ses activités ailleurs en excluant Goldman des autres activités de l'État. C'est quelque chose que le gouverneur Mike Dunleavy a laissé entendre.

    Le gouverneur a également souligné que d'autres entreprises d'investissement pourraient remplacer Goldman Sachs et que toute perte de production de pétrole en Alaska nuirait aux travailleurs et aux consommateurs américains. Ces programmes de désinvestissement servent également à aider d'autres pays producteurs de pétrole qui ne disposent pas des garanties environnementales prescrites aux États-Unis.En fait, il existe de nombreux autres preneurs de ressources énergétiques dans l'Arctique.

    Pour les alarmistes du climat, la science, l’histoire et les faits sur la température mondiale ne correspondent pas à leurs modèles informatiques et à leurs prédictions sur trente ans de la disparition de la Terre. En conséquence, le public n'est toujours pas convaincu de ses revendications d'urgence, ce qui est l'une des raisons pour lesquelles le Green New Deal ne sera pas adopté par le Congrès de si tôt. En fait, le seul vote qui a eu lieu a été lorsque le Sénat américain a voté contre sans un seul vote de soutien (les démocrates, y compris le principal parrain du GND, ont voté «présents»).

    S'il est vrai que des New Green Deals localisés ont été adoptés à New York, Los Angeles et ailleurs, l'impact négatif sur les coûts pour le public, y compris du rationnement énergétique, est reporté de plusieurs années. De cette façon, peu de politiciens d'aujourd'hui seront confrontés à un contrecoup. Les objectifs climatiques neutres en carbone, par exemple, entreront en vigueur dans une douzaine d'années ou des décennies, bien après la retraite ou la mort de la plupart des politiciens actuels.

    RépondreSupprimer
  3. Le fait est que sans véritable adhésion du public, les groupes extrémistes climatiques ont eu recours aux menaces, au boycott et à l'intimidation d'entreprises de haut niveau. Ceci est un autre moyen de forcer la transformation des combustibles fossiles vers un nirvana sans carbone qui est totalement irréaliste et injustifié. Pourtant, les grandes entreprises sont toujours une question de résultat, et la mauvaise publicité d'une campagne sur les médias sociaux peut avoir un effet financier dévastateur - ce que peu de PDG des entreprises risqueraient, qu'ils soient ou non d'accord avec l'alarmisme climatique.

    Les campagnes menées par des groupes alarmistes pour le désinvestissement des combustibles fossiles, si elles réussissaient, seraient préjudiciables aux travailleurs et à l'économie américaine dans son ensemble - sans les avantages environnementaux concomitants. Si le camp alarmiste était sérieux, il ferait campagne pour le désinvestissement dans des pays qui ne se soucient ni de l'environnement ni des émissions de carbone, à commencer par la Chine et la Russie.

    De nombreuses méga sociétés basées aux États-Unis telles qu'Amazon et Apple, dont les sites Web vantent leur environnementalisme, sont d'énormes investisseurs en Chine car elles en profitent largement. Ils ne font pas sérieusement pression sur la Chine pour qu'elle se soucie du climat, ni ne se séparent de ce pays dictatorial. La Chine dégage plus de carbone que les États-Unis et l'Europe réunis, mais ne comptez pas sur des groupes verts ou des sociétés multinationales pour tenter une quelconque réparation. Cette incohérence pas si légère concerne moins la protection de l'environnement et de la température mondiale et davantage un programme anti-capitalisme et anti-américanisme du groupe vert.

    Les demandes de désinvestissement des entreprises sont une attaque contre la liberté de choix et la prospérité économique dont nous jouissons en tant qu'Américains grâce à une énergie abordable. Si les entreprises sont convaincues qu'il est dans leur intérêt (financier ou RP) d'avoir des objectifs climatiques et davantage de sources d'énergie renouvelables, c'est leur choix. L'intimidation et les boycotts de groupes alarmistes climatiques sont par ailleurs hypocrites, contre-productifs et, en fin de compte, une atteinte aux libertés dont nous jouissons en tant qu'Américains.

    https://www.cfact.org/2020/01/09/greens-intimidating-big-business/

    RépondreSupprimer
  4. Les «boîtes noires» de Tesla ne sont accessibles que par l'entreprise (pas le NTSB ou la NHTSA) après des accidents


    par Tyler Durden
    Ven, 01/10/2020 - 09:05


    Comme dans les avions, Teslas sont équipés de "boîtes noires" qui enregistrent les informations critiques dans les secondes et les minutes précédant les accidents et les accidents. Ils enregistrent des détails comme le freinage, le déploiement de l'airbag et d'autres mesures.

    Alors que les véhicules conventionnels peuvent avoir accès à leurs boîtes noires largement, les voitures dotées de technologies de conduite automatisée ne peuvent avoir accès à leurs informations que par le fabricant. Cela signifie que toute enquête potentielle dépend des informations qui devraient être transmises par l'entreprise faisant l'objet de l'enquête.

    Et donc Dana Hull de Bloomberg pose une bonne question: devrions-nous craindre que les seules personnes qui aient accès à ces informations soient les fabricants eux-mêmes ?

    Et nous poserons une autre question: n'est-ce pas encore plus vrai lorsque, disons, cette entreprise n'a peut-être pas les meilleurs antécédents d'honnêteté débridée ?

    Sam Abuelsamid, analyste principal pour Navigant Research à Detroit, a déclaré: "Nous ne devrions jamais avoir à nous fier au fabricant pour traduire ce type de données, car ils sont potentiellement responsables des défauts de produit et ils ont un conflit d'intérêts inhérent."

    Une "boîte noire" Tesla
    "Alors que nous déployons plus de véhicules avec ces systèmes d'automatisation partielle, il devrait être obligatoire d'enregistrer des informations sur l'état de l'automatisation et le conducteur", a-t-il poursuivi.

    Après un crash en 2016 en Floride, le NTSB est sorti et a appelé le département des transports à définir les données à collecter.

    Dans le rapport de crash de 2016, le NTSB a commenté: «À mesure que de plus en plus de constructeurs déploient des systèmes automatisés sur leurs véhicules, pour améliorer la sécurité du système, il sera nécessaire de développer des informations détaillées sur la manière dont les systèmes de sécurité active ont fonctionné et comment les conducteurs ont réagi à un séquence de crash. Les fabricants, les régulateurs et les enquêteurs sur les accidents ont tous besoin de données spécifiques en cas de dysfonctionnement ou de crash du système. »

    Pendant ce temps, la NHTSA dit qu'elle examine un accident en Californie impliquant une Tesla qui a eu lieu ce week-end. Ils n'ont pas précisé si le pilote automatique était engagé ou non au moment de l'accident.

    Raul Arbelaez, vice-président du centre de recherche sur les véhicules de l'Insurance Institute for Highway Safety, a déclaré: les accidents qui représentent la grande majorité des collisions de la circulation. "

    Il a poursuivi: «Comment les gens interagissent-ils avec ces technologies ? Dans quelles conditions ont-ils tendance à travailler ? Travaillent-ils vraiment mal la nuit avec la neige et la pluie, ou sont-ils excellents dans ces conditions ? Je suis sûr qu'il est très utile pour les constructeurs automobiles de les aider à améliorer leurs produits sur le long terme, mais en termes de compréhension de la performance de la flotte actuelle, nous n'y avons vraiment pas accès dans ces accidents qui se produisent très rapidement sans travailler avec les fabricants.

    RépondreSupprimer
  5. Dans le cas de l'accident de Floride en 2016, la Tesla n'avait pas de données d'événement enregistrées pouvant être lues par des outils largement disponibles. Au lieu de cela, l'entreprise a dû fournir les informations révélant que le conducteur utilisait le pilote automatique.

    La dernière règle pour régir ces dispositifs, faite en 2006, requiert 15 paramètres qui, selon le NTSB, «sont insuffisants pour comprendre même les questions les plus simples de qui / quoi contrôlait un véhicule automatisé au moment d'un accident».

    Le NTSB continue d'enquêter sur plusieurs accidents impliquant Teslas et le pilote automatique:

    Le NTSB enquête sur d'autres accidents de véhicules Tesla survenus lors de l'utilisation du pilote automatique, y compris une collision mortelle en mars 2018 à Mountain View, en Californie. La NHTSA, quant à elle, a lancé des sondages sur 13 accidents qui, selon elle, peuvent s'être produits pendant que les conducteurs utilisaient le pilote automatique, y compris un accident survenu le 7 décembre dans le Connecticut, dans lequel un conducteur de Tesla a mis un terme à un véhicule de police en stationnement.

    L'agence s'intéresse à la façon dont la nouvelle technologie est utilisée, affirme l'article. Cependant, nous ne pouvons pas nous empêcher de croire que le NTSB et la NHTSA se traînent les pieds pour retirer ce que nous pensons être une "caractéristique" extrêmement dangereuse des routes.

    Nous avons souvent demandé combien de personnes supplémentaires devaient finir décapitées, comme le conducteur de 2016, dont Tesla s'est conduit sous un semi-camion tout en essayant de changer de voie, pour que les régulateurs agissent.

    https://www.zerohedge.com/technology/teslas-black-boxes-are-only-accessible-company-not-ntsb-or-nhtsa-after-crashes

    RépondreSupprimer
    Réponses
    1. Avec les voitures électrique on est passé du stade de l'expérience à celui de l'horreur !

      Supprimer
  6. La génération Y peut gagner 100 000 $ en travaillant chez Taco Bell


    par Tyler Durden
    Ven, 01/10/2020-08: 25


    Les milléniaux sont désormais considérés comme «la génération a éclaté» avec leurs dettes d'études insurmontables, des prêts automobiles presque records, des soldes de cartes de crédit élevés avec des taux à des sommets de deux décennies et des économies limitées. Beaucoup sont coincés dans la gig-économie avec plus d'un emploi. Il est difficile de trouver un emploi bien rémunéré si tard dans une expansion économique.

    Ainsi, pour tous les milléniaux, un nouveau communiqué de presse via Taco Bell explique comment le restaurant de restauration rapide Tex-Mex prévoit un programme pilote pour embaucher des gestionnaires avec un salaire de départ de 100000 $ dans des restaurants appartenant à l'entreprise dans des marchés sélectionnés.

    Le miam! La chaîne appartenant à Brands Inc. dirigera le programme pilote dans le Midwest américain et le Nord-Est. L'entreprise augmentera également la rémunération des employés de niveau intermédiaire qui souhaitent assumer d'autres fonctions de direction.

    "Nous explorons constamment de nouvelles façons d'investir dans notre personnel, d'améliorer le moral et de stimuler le recrutement et la rétention", a déclaré Ferril Onyett, directeur principal de la formation mondiale et des RH internationales de Taco Bell, dans un communiqué envoyé par courriel à MarketWatch. Les managers ont "un impact énorme" sur les performances du restaurant, l'expérience client et la "satisfaction des membres de l'équipe", a-t-elle ajouté.

    "Nous explorons constamment de nouvelles façons d'investir dans notre personnel, d'améliorer le moral et de stimuler le recrutement et la rétention", a déclaré Ferril Onyett, directeur principal de la formation mondiale et des RH internationales de Taco Bell, dans un communiqué envoyé par courriel à MarketWatch. Les managers ont "un impact énorme" sur les performances du restaurant, l'expérience client et la "satisfaction des membres de l'équipe", a-t-elle ajouté.

    Onyett a déclaré qu'il n'y avait pas de calendrier sur le moment où les 450 magasins appartenant à l'entreprise recevraient 100 000 $ de directeurs, ajoutant que les directeurs actuels gagnaient environ 50 000 $ à 80 000 $.

    "Nous espérons que nous pourrons évaluer l'effet de l'augmentation des salaires sur le moral des managers et des équipes, les performances des restaurants, le recrutement et la rétention et l'expérience client", a déclaré Onyett.

    L'annonce intervient alors que près de la moitié de tous les restaurants américains souffrent de l'augmentation des coûts de main-d'œuvre. Jeudi, nous avons évoqué ce nouveau phénomène qui sévit dans les restaurants.

    Bien que la hausse des coûts de main-d'œuvre ne conduise pas à la fin de la boîte Taco Bell à 5 $, elle entraînera sans aucun doute une compression des marges car l'entreprise devra manger des coûts de main-d'œuvre plus élevés et éviter d'augmenter les prix des denrées alimentaires sur les Américains à faible revenu, ou leur clientèle passer à d'autres options de restauration rapide.

    En ce qui concerne les milléniaux brisés avec des dettes insurmontables, aucune économie et plusieurs emplois dans la gig-économie si tard dans une expansion économique, ce pourrait être le bon moment pour contacter Taco Bell pour obtenir un emploi de direction de 100000 $ avant la prochaine récession.

    https://www.zerohedge.com/markets/millennials-can-make-100k-working-taco-bell

    RépondreSupprimer
  7. LUTTE CONTRE LA CORRUPTION : LA FRANCE PEUT MIEUX FAIRE


    par ANTON KUNIN
    09/01/2020


    Après le rapport du GRECO de 2018, la France a n'a intégralement mis en oeuvre que 35% des recommandations.

    Pour le GRECO, organe anticorruption du Conseil de l’Europe, la France devrait encore faire des efforts pour mieux prévenir la corruption au sein de l’exécutif (Président de la République, ministres, membres de cabinets et hauts-fonctionnaires), ainsi que dans la police et la gendarmerie.

    En finir avec les conflits d’intérêts au sein des ministères

    Dans le domaine de la lutte contre la corruption au sein de l’exécutif, la France a encore des efforts à faire, estime le GRECO, organe anticorruption du Conseil de l’Europe dans son rapport annuel rendu public le 9 janvier 2020. Première préconisation : tout en saluant l’obligation pour les ministres de déclarer leurs intérêts, le GRECO recommande d’étendre cette obligation au Président de la République dès son entrée en fonction. Une telle disposition devrait permettre de désamorcer tout éventuel conflit d’intérêts.

    Le GRECO recommande également d’appliquer aux membres des cabinets ministériels les mêmes exigences de déclaration d’intérêts qu’aux ministres, les membres de cabinets ayant eux aussi une influence sur la prise de décision. En cas de conflit d’intérêts, ils pourront ainsi être écartés du processus décisionnel. Chose positive cependant : en France, les noms des membres des cabinets sont publics, ils sont accessibles sur les sites des ministères.

    Les lobbystes encore et toujours dans le collimateur

    Le GRECO prône aussi une plus grande transparence dans les contacts entre l’exécutif et les groupes d’intérêts, autrement dit les lobbys. « Les membres de l’exécutif, y compris le Président de la République, devraient faire état publiquement et à intervalles réguliers des lobbyistes rencontrés et des questions abordées », peut-on lire dans le rapport annuel.

    Enfin, s’agissant de la Cour de Justice de la République, appelée à juger les ministres pour des infractions pénales commises dans le cadre de leurs fonctions, le GRECO recommande de la remplacer par une juridiction indépendante des partis politiques. Il faut savoir que dans l’état actuel des choses, cette cour est composée pour moitié de parlementaires, ce qui suscite des doutes quant à son impartialité.

    http://www.economiematin.fr/news-corruption-rapport-greco-recommandations-france

    RépondreSupprimer
  8. Fusions-acquisitions: la Chine fait peur... sauf en Suisse !


    10. janvier 2020
    PAR JEAN-PHILIPPE BUCHS


    La surveillance des investissements étrangers devient la norme au niveau international. De son côté, la Suisse refuse de prendre des mesures de contrôle.

    C’est une opération qui en dit long sur le climat régnant autour des rapprochements d’entreprises au niveau mondial! A la mi-décembre, Fiat-Chrysler Automobiles (FCA) et Peugeot annonce leur intention de fusionner pour donner naissance au 4ème constructeur mondial. Dans le même temps, le chinois Dongfeng communique avoir cédé 30 millions d’actions qu’il détient dans le capital de Peugeot (12,2%), de sorte qu’il ne possède que 4,5% de la nouvelle société.

    Cette transaction a été rendue nécessaire pour éviter d’effrayer les autorités américaines chargées d’autoriser cette alliance. Une présence chinoise plus forte dans le capital de FCA aurait fait courir un risque majeur pour obtenir l’accord du comité américain de contrôle des investissements étrangers.

    C'est la Chine qui est visée
    La traque aux capitaux étrangers est devenue un enjeu majeur. Elle vise surtout les sociétés chinoises. «Avant, le marché mondial des fusions-acquisitions se départageait entre le monde occidental et les pays émergents. Aujourd’hui, deux blocs s’opposent, la Chine et les Etats-Unis, et chaque entreprise est tenue de choisir. Si elle regarde trop à l’Est, il lui sera compliqué de regarder à l’Ouest, et vice-versa», constate dans le quotidien français Les Echos Luigi de Vecchi, président de la banque d’investissement pour l’Europe continentale de l’américain Citi.

    Aux Etats-Unis, de nouvelles règles sont entrées en vigueur en été 2018. Selon un rapport du Conseil fédéral publié en février 2019, elles sont nées «de la crainte que d’autres pays, la Chine en particulier, parviennent toujours mieux à contourner les contrôles actuels des investissements, notamment par l’intermédiaire des coentreprises.»

    Ce même rapport constate que «la majorité des grandes économies (par exemple celles du G7) appliquent des mesures de contrôle des investissements. Si l’on se penche sur l’Union européenne, le tableau est plus nuancé: la majorité des petits États, comme la Belgique, l’Irlande ou la Suède, ne surveillent pas les investissements, mais il existe aussi quelques petits États membres de l’UE, comme la Finlande ou l’Autriche, qui contrôlent les investissements.»

    En France, une nouvelle disposition a été promulguée au 1er janvier 2020. Désormais, le gouvernement peut bloquer toute prise de participation étrangère supérieure à 25% dans une société hexagonale active dans un secteur jugé stratégique comme l’énergie, la santé, les transports et même la presse.

    La Suisse reste ouverte
    Et en Suisse ? Plusieurs parlementaires ont demandé à la Confédération d’agir. Mais leurs différentes démarches ont pour l’instant échoué. Le Conseil fédéral a estimé «qu'un contrôle des investissements n'est ni pertinent ni nécessaire.»

    RépondreSupprimer
  9. Et en octobre dernier, la Commission de l’économie et des redevances du 8 octobre 2019 a refusé de charger le Conseil fédéral de créer une autorité d’approbation ayant pour mandat de contrôler les investissements directs depuis l’étranger dans des entreprises suisses. «La création d’une telle autorité, affirme-t-elle, serait en contradiction avec la politique économique extérieure de la Suisse, qui se caractérise précisément par son ouverture, sa neutralité et son internationalité.»

    Selon la Banque nationale suisse (BNS), les stocks d’investissements directs étrangers en Suisse s’élèvent à 1 296 milliards de francs (état à fin 2018). Ils sont majoritairement détenus au moyen de sociétés intermédiaires, elles-mêmes contrôlées par des groupes établis dans des pays tiers. Les statistiques de la BNS permettent de connaître l’origine réelle des investisseurs. Il en ressort les investisseurs dits ultimes domiciliés aux Etats-Unis détiennent 43% des stocks et ceux domiciliés dans l’UE, 34%.

    La Russie, 10ème investisseur en Suisse

    Deux nouveaux acteurs jouent un rôle de plus en plus important depuis quelques années. Les stocks d’investissements contrôlés par des investisseurs ultimes domiciliés en Russie ont grimpé de 8 milliards de francs en 2014 à 29 milliards de francs (26 800 771 254 €) en 2018. Ce pays fait désormais partie des dix premiers investisseurs en Suisse.

    Entre 2016 et 2018, des entités domiciliées en Chine ont procédé à une série d’acquisitions importantes dans notre pays. Au cours de cette période, les stocks d’investissements se sont envolés de 7 milliards de francs à 18 milliards de francs.

    https://www.bilan.ch/economie/fusions-acquisitions-la-chine-fait-peur-sauf-en-suisse?utm_source=Bilan.ch&utm_campaign=93d1d55a5b-Bilan_manuel+10.01.2020&utm_medium=email&utm_term=0_13557690c7-93d1d55a5b-309077073&mc_cid=93d1d55a5b&mc_eid=76fa28326a

    RépondreSupprimer
  10. LE MOTEUR DE RECHERCHE FRANÇAIS QWANT CHANGE DE PATRON


    par OLIVIER SANCERRE
    09/01/2020


    Qwant emploie 150 personnes.

    Qwant, le moteur de recherche français qui entre en concurrence avec Google, va bénéficier d'une recapitalisation… Mais l'entreprise devra se séparer de son dirigeant historique, Eric Leandri.

    Qwant, créé en 2013 par Eric Leandri et d'autres investisseurs privés, a un modèle très différent de son grand concurrent Google. Il ne suit pas les internautes à la trace pour afficher de la publicité personnalisée : les bandeaux publicitaires présents dans les résultats de recherche de Qwant se base simplement sur les mots clé saisis par l'utilisateur. Google exploite un ensemble de données pour cibler les publicités, quitte à aller très loin dans le traçage… Trop peut-être. Malgré ce modèle respectueux de l'internaute, Qwant demeure un acteur mineur sur le marché : en France, sa part de marché oscille entre moins de 1% et 4%, en fonction des études.

    Une part de marché entre 1% et 4%

    Malgré tout, le moteur de recherche a enregistré une progression commerciale et d'audience au second semestre, selon un communiqué du groupe. L'entreprise se réjouit aussi d'avoir amélioré la fiabilité de ses résultats de recherche, ce qui est bien le moins pour un moteur de recherche. La Caisse des Dépôts, via la Banque des Territoires, et le groupe Axel Springer ont décidé de renouveler leur confiance : ils s'engagent ainsi à participer à un nouveau tour de table qui sera finalisé courant février, sans toutefois donner de chiffres précis. Les deux actionnaires détiennent, d'après l'AFP, plus de 35% du capital de Qwant.

    Nouveau tour de table

    Le nouveau tour de table visant à recapitaliser l'entreprise provoque un bouleversement à la direction. Eric Leandri quitte la direction exécutive, il est remplacé par Jean-Claude Ghinozzi, actuellement directeur général adjoint en charge des ventes et du marketing. Il sera secondé par un conseil de gouvernance présidé par un représentant de la Banque des Territoires. Quant au cofondateur, par ailleurs un des plus importants actionnaires du groupe, il prend la tête d'un comité de stratégique et scientifique qui définira les grandes orientations technologies de Qwant.

    http://www.economiematin.fr/news-moteur-recherche-francais-qwant-change-patron

    RépondreSupprimer
    Réponses
    1. Si vous recherchez ce site il s'affiche:

      VOTRE CONNEXION N'EST PAS PRIVÉE

      Vous avez tenté de contacter lite.qwant.com mais le certificat présenté par le serveur est incorrect. Vous ne pouvez pas continuer parce que l'opérateur du site web a exigé une sécurité renforcée pour ce domaine.

      Revenir en sécurité

      Aidez-moi à comprendre

      Supprimer
  11. Un manifestant touché par un tir de LBD à bout portant à Paris – vidéo


    09:00 10.01.2020


    Ayant débuté dans une ambiance bon enfant le 9 janvier, la mobilisation contre la réforme des retraites a été émaillée de heurts à Paris. Sur une vidéo devenue virale, un manifestant est touché par un tir de LBD à bout portant puis serait matraqué par les forces de l'ordre au sol.

    Paris a vécu le 9 janvier la 4e journée interprofessionnelle de grève et le 36e jour de mobilisation contre la réforme des retraites. Plusieurs affrontements entre manifestants et forces de l'ordre ont néanmoins terni la manifestation. Des échauffourées ont ainsi éclaté à l'arrivée du cortège place Saint-Augustin et 27 personnes ont été interpellées.

    Sur Internet, une vidéo de 37 secondes montrant des violences policières est devenue virale. On y voit des fonctionnaires lourdement équipés qui repoussent la foule et se servent de leurs matraques.

    Le moment où un tir de LBD est effectué à bout portant est également filmé (à 0.12 sur la vidéo).

    Après ce tir, plusieurs personnes se retrouvent au sol. La personne touchée serait avec elles. Les agents lui donneraient alors encore un coup de matraque.

    La vidéo a totalisé près d’un million de vues et a été signalée par David Dufresne. De nombreux internautes vilipendent ce déchaînement de violence.

    Selon la préfecture de police de Paris, 20 manifestants ont été blessés au cours de cette quatrième journée de mobilisation parisienne.

    Un regain de violences à Paris

    Jeudi 9 janvier, à Paris, la tension est montée d'un cran. Les forces de l’ordre ont dû répondre aux jets de projectiles des manifestants par des charges et des tirs de gaz lacrymogène.

    Des protestataires ont également brisé plusieurs vitrines de commerces et des abris bus dans une rue menant à la place Saint-Augustin.

    Jeudi soir, l'intersyndicale a annoncé trois nouvelles actions les 14, 15 et 16 janvier contre la réforme des retraites.

    https://fr.sputniknews.com/france/202001101042728199-un-manifestant-touche-par-un-tir-de-lbd-a-bout-portant-a-paris--video-/

    RépondreSupprimer
  12. Un test par satellite montre que les objets dans l'espace chutent à une vitesse de deux trillions de pour cent les uns des autres


    par Bob Yirka, Phys.org
    RAPPORT DU 10 JANVIER 2020


    Une équipe de chercheurs affiliés à plusieurs institutions en France et à une aux États-Unis a découvert que des objets de masse différente largués dans l'espace tombent à un rythme de deux trillions de pour cent les uns des autres. Dans son article publié dans la revue Physical Review Letters, le groupe décrit leur étude de physique par satellite et ce qu'ils en ont appris.

    Presque tout le monde a entendu l'histoire de Galileo lâcher deux boules de canon de tailles différentes de la tour de Pise au 17ème siècle pour démontrer sa théorie qu'en l'absence de résistance à l'air, deux objets tomberont au même rythme. Plus tard, Einstein a affiné la théorie et l'a ajoutée à sa théorie de la relativité générale. Depuis ce temps, de nombreuses personnes ont testé la théorie, et cela a toujours été confirmé. Pourtant, certains physiciens croient qu'il y a forcément des exceptions à la théorie en raison de la déconnexion entre la relativité générale et la mécanique quantique. Dans ce nouvel effort, l'équipe de France a mis au point une expérience pour mesurer deux objets tombant ensemble pendant deux ans - en particulier, deux morceaux de métal dans un satellite - pour voir s'ils pouvaient repérer une exception.

    Les deux morceaux d'un alliage platine-rhodium et d'une masse d'alliage titane-aluminium-vanadium ont été installés dans un appareil que l'équipe a appelé l'accéléromètre à double espace pour l'expérience de gravité (T-SAGE), qui était à bord d'un satellite avec l'acronyme MICROSCOPE. Le satellite a été lancé dans l'espace à bord d'une fusée Soyouz du centre spatial guyanais ELS.

    Le T-SAGE a été conçu pour atténuer tout ce qui pourrait avoir un impact sur le taux de descente des objets qui tombent, comme la lumière du soleil et les vibrations. Et ses accéléromètres étaient hautement spécialisés - ils ont testé la quantité de force nécessaire pour maintenir fermement chacun des morceaux de métal à l'intérieur de l'appareil pendant tout le voyage avec une sensibilité de 2 × 10-14 au paramètre Eotvos. Les chercheurs rapportent que le T-SAGE a montré que les deux objets sont tombés à des taux presque identiques - à moins de deux trillions de pour cent l'un de l'autre. La mesure était suffisamment proche pour signaler qu'aucune violation de Lorentz n'a été détectée.

    https://phys.org/news/2020-01-satellite-space-fall-two-trillionths-percent.html

    RépondreSupprimer
  13. Les chimistes signalent une nouvelle utilisation des déchets de la production d'énergie nucléaire


    10 JANVIER 2020
    par l'Université du Sussex


    Les chimistes ont trouvé une nouvelle utilisation pour les déchets de l'énergie nucléaire, transformant un stock inutilisé et stocké en un composé polyvalent qui pourrait être utilisé pour créer des produits chimiques précieux ainsi que de nouvelles sources d'énergie.


    L'uranium appauvri (DU) est un sous-produit radioactif du processus utilisé pour créer l'énergie nucléaire. Beaucoup craignant les risques pour la santé de l'UA, il est soit stocké dans des installations coûteuses, soit utilisé pour fabriquer des missiles controversés perforants.

    Mais, dans un article publié dans le Journal of the American Chemical Society, le professeur Geoff Cloke, le professeur Richard Layfield et le Dr Nikolaos Tsoureas, tous à l'Université du Sussex, ont révélé que l'UA pourrait, en fait, être plus utile que nous le pourrions pense.

    En utilisant un catalyseur contenant de l'uranium appauvri, les chercheurs ont réussi à convertir l'éthylène (un alcène utilisé pour fabriquer du plastique) en éthane (un alcane utilisé pour produire un certain nombre d'autres composés, dont l'éthanol).

    Leur travail est une percée qui pourrait aider à réduire la lourde charge de stockage à grande échelle de l'UA et conduire à la transformation d'alcènes plus compliqués.

    Le professeur Layfield a déclaré: "La capacité de convertir les alcènes en alcanes est une réaction chimique importante qui signifie que nous pouvons être en mesure de prendre des molécules simples et de les transformer en produits chimiques de valeur, comme les huiles hydrogénées et les produits pétrochimiques qui peuvent être utilisés comme source d'énergie.

    "Le fait que nous puissions utiliser de l'uranium appauvri pour ce faire prouve que nous n'avons pas besoin d'en avoir peur car cela pourrait en fait nous être très utile."

    En collaboration avec des chercheurs de l'Université de Toulouse et de Humboldt-Universität zu Berlin, l'équipe de Sussex a découvert qu'une molécule organométallique à base d'uranium appauvri pouvait catalyser l'ajout d'une molécule d'hydrogène à la double liaison carbone-carbone dans l'éthylène - le membre le plus simple de la famille des alcènes - pour créer de l'éthane.

    Le professeur Cloke a déclaré: "Personne n'avait pensé à utiliser l'UA de cette manière auparavant. Bien que la conversion de l'éthylène en éthane ne soit pas nouvelle, l'utilisation ou l'uranium est une étape clé.

    "La clé de la réactivité était deux anneaux pentagonaux de carbone fusionnés, connus sous le nom de pentalène, qui aident l'uranium à injecter des électrons dans l'éthylène et à l'activer vers l'ajout d'hydrogène."

    https://phys.org/news/2020-01-chemists-product-nuclear-power.html

    RépondreSupprimer
  14. Une pépite d'or 18 carats en plastique


    10 JANVIER 2020
    par Peter Rüegg, ETH Zurich



    Les chercheurs de l'ETH ont créé un or 18 carats incroyablement léger, utilisant une matrice de plastique à la place d'éléments en alliage métallique.

    Les amateurs de montres en or et de bijoux lourds seront ravis. Les objets de leur désir peuvent un jour devenir beaucoup plus légers, mais sans rien perdre de leur éclat. Surtout avec des montres, une petite quantité de poids peut faire toute la différence. Personne ne veut porter une montre lourde à son poignet, même si elle est en or véritable. Après un certain temps, cela devient inconfortable et ennuyeux.

    Ancien post-doctorant au laboratoire des EPF dirigé par Raffaele Mezzenga, professeur d'aliments et de matériaux mous, Leonie van 't Hag a décidé de créer une nouvelle forme d'or qui pèse environ cinq à dix fois moins que l'or traditionnel 18 carats. Le mélange conventionnel est généralement aux trois quarts d'or et au quart de cuivre, avec une densité d'environ 15 g / cm3.

    Ce n'est pas vrai pour ce nouvel or léger: sa densité n'est que de 1,7 g / cm3. Et pourtant, c'est toujours de l'or 18 carats. Comment cette légèreté miraculeuse s'est-elle réalisée ? Au lieu d'un élément en alliage métallique, van 't Hag, Mezzenga et ses collègues ont utilisé des fibres protéiques et un latex polymère pour former une matrice dans laquelle ils ont incorporé de minces disques de nanocristaux d'or. De plus, l'or léger contient d'innombrables petites poches d'air invisibles à l'œil. L'étude des chercheurs sur ce processus vient d'être publiée dans la revue Advanced Functional Materials.

    Voici comment les chercheurs créent le nouvel or léger: d'abord, ils ajoutent les ingrédients à l'eau et créent une dispersion. Après avoir ajouté du sel pour transformer la dispersion en gel, ils remplacent ensuite l'eau qu'elle contient par de l'alcool.

    Ensuite, ils placent le gel d'alcool dans une chambre sous pression, où des pressions élevées et une atmosphère de gaz carbonique supercritique permettent la miscibilité de l'alcool et du gaz gaz carbonique; lorsque la pression est relâchée, tout le transforme en un aérogel homogène de type gossamer. La chaleur peut ensuite être appliquée pour recuire les polymères plastiques, transformant ainsi le matériau et le compactant dans la forme finale souhaitée, tout en préservant la composition de 18 carats.

    Propriétés d'une pièce en plastique

    "Cet or a les propriétés matérielles d'un plastique", explique Mezzenga. Si un morceau de celui-ci tombe sur une surface dure, cela ressemble à du plastique. Mais il scintille comme de l'or métallique et peut être poli et travaillé dans la forme souhaitée.

    Les chercheurs peuvent même ajuster la dureté du matériau en modifiant la composition de l'or. Ils peuvent également remplacer le latex dans la matrice par d'autres plastiques, tels que le polypropylène. Étant donné que le polypropylène se liquéfie à une température spécifique, "l'or plastique" fabriqué avec lui peut imiter le processus de fusion de l'or, mais à des températures beaucoup plus basses. De plus, la forme de la nanoparticule d'or peut changer la couleur du matériau: les "nanoplaquettes" produisent le scintillement typique de l'or, tandis que les nanoparticules sphériques d'or donnent au matériau une teinte violette.

    RépondreSupprimer

  15. "En règle générale, notre approche nous permet de créer presque n'importe quel type d'or que nous choisissons, conformément aux propriétés souhaitées", explique Mezzenga.

    L'or pour l'horlogerie et l'électronique

    Mezzenga souligne que, si l'or plastique sera particulièrement demandé dans la fabrication de montres et de bijoux, il convient également à la catalyse chimique, aux applications électroniques ou au blindage contre les radiations. Les chercheurs ont déposé des demandes de brevet pour le procédé et le matériau.

    Les scientifiques de Mezzenga s'étaient déjà fait un nom il y a quelque temps avec l'or le plus léger du monde - de l'or qui pesait si peu qu'il pouvait flotter sur la mousse de cappuccino. "Mais le matériau était trop instable et ne pouvait pas être travaillé. Cette fois, nous nous sommes fixé l'objectif clair de créer un or léger qui peut également être traité et utilisé dans la plupart des applications où l'or est utilisé aujourd'hui", a déclaré Mezzenga.

    https://phys.org/news/2020-01-carat-gold-nugget-plastic.html

    RépondreSupprimer
  16. Une étude examine comment le mix énergétique mondial pourrait changer au cours des 20 prochaines années


    10 JANVIER 2020
    par Mark Dwortzan, Massachusetts Institute of Technology



    Lorsqu'il s'agit de remplir des engagements ambitieux en matière d'énergie et de climat, peu de pays parviennent à tenir leur promesse. Un exemple typique est l'Accord de Paris initié il y a quatre ans. Près de 200 pays signataires ont soumis des engagements volontaires pour réduire leur contribution aux émissions mondiales de gaz à effet de serre d'ici 2030, mais beaucoup ne sont pas en voie de respecter ces engagements. De plus, seul un petit nombre de pays mènent actuellement des politiques climatiques compatibles avec le maintien du réchauffement climatique bien en dessous de 2 degrés Celsius, l'objectif à long terme recommandé par le Intergovernmental Panel on Climate Change (IPCC).

    Cette divergence croissante entre les politiques actuelles et les objectifs à long terme - combinée à l'incertitude quant à la capacité des nations individuelles à respecter leurs engagements en raison des défis administratifs, technologiques et culturels - rend de plus en plus difficile pour les scientifiques de projeter l'avenir du système énergétique mondial et son impact sur le climat mondial. Néanmoins, ces projections restent essentielles pour que les décideurs puissent évaluer les risques physiques et financiers du changement climatique et des efforts de transition vers une économie sobre en carbone.

    À cette fin, plusieurs groupes d'experts continuent de produire des scénarios énergétiques et d'analyser leurs implications pour le climat. Dans une étude publiée dans la revue Economics of Energy & Environmental Policy, Sergey Paltsev, directeur adjoint du MIT Joint Program on the Science and Policy of Global Change et chercheur principal à la MIT Energy Initiative, a recueilli des projections du mix énergétique mondial sur les deux prochaines décennies de plusieurs grands producteurs de scénarios énergétiques. En regroupant les résultats des scénarios élaborés par le Programme commun du MIT, l'Agence internationale de l'énergie, Shell, BP et ExxonMobil, et en les contrastant avec les scénarios évalués par l'IPCC qui seraient nécessaires pour suivre une voie qui limite le réchauffement climatique à 1,5 C, Paltsev est arrivé à trois constatations notables:

    Les combustibles fossiles diminuent, mais dominent toujours. En supposant que les engagements actuels de l'Accord de Paris sont maintenus au-delà de 2030, la part des combustibles fossiles dans le mix énergétique mondial passe d'environ 80% aujourd'hui à 73-76% en 2040. Dans des scénarios conformes à l'objectif 2° C, cette part diminue à 56-61 pour cent en 2040. Pendant ce temps, la part de l'énergie éolienne et solaire passe de 2 pour cent aujourd'hui à 6-13 pour cent (engagements actuels) et plus loin à 17-26 pour cent (scénarios 2 C) en 2040.

    La capture de carbone attend dans les ailes. Les multiples scénarios montrent également un avenir mitigé pour les combustibles fossiles alors que le globe s'éloigne des sources d'énergie à forte intensité de carbone. L'utilisation du charbon n'a pas d'avenir durable à moins d'être associée à la technologie de capture et de stockage du carbone (CSC), et la plupart des projections à court terme ne montrent aucun déploiement à grande échelle du CSC dans les 10 à 15 prochaines années. Cependant, la consommation de gaz naturel devrait augmenter au cours des 20 prochaines années, mais devrait également diminuer par la suite sans CSC. Pour les voies compatibles avec l'objectif "bien en dessous de 2 C", la mise à l'échelle du CSC au milieu du siècle est essentielle pour toutes les technologies émettrices de carbone.

    RépondreSupprimer
  17. L'énergie solaire et éolienne prospèrent, mais les problèmes de stockage demeurent. Les scénarios montrent l'importance critique des améliorations de l'efficacité énergétique sur le rythme de la transition à faible intensité de carbone, mais peu de consensus sur l'ampleur de ces améliorations. Cependant, ils indiquent sans équivoque les prochaines décennies fructueuses pour l'énergie solaire et éolienne. Ces perspectives positives sont dues à la baisse des coûts et à l'intensification de la recherche et de l'innovation pour relever les défis de l'intermittence et du stockage à long terme de l'énergie.

    Bien que les scénarios considérés dans cette étude projettent une part accrue des énergies renouvelables au cours des 20 prochaines années, ils n'indiquent rien de proche d'une décarbonisation complète du système énergétique pendant cette période. Pour évaluer ce qui se passe au-delà de 2040, l'étude conclut que les décideurs devraient s'appuyer sur une série de projections de futurs plausibles, car les technologies dominantes à court terme peuvent ne pas prévaloir à long terme.

    "Bien que les projections énergétiques deviennent plus difficiles en raison de l'élargissement du fossé entre les politiques actuelles et les objectifs déclarés, elles restent l'outil le plus efficace des parties prenantes pour évaluer les risques physiques et financiers à court et à long terme associés au changement climatique et à la transition mondiale en cours système énergétique à faible émission de carbone ", explique Paltsev. "La combinaison des résultats de plusieurs sources fournit un aperçu supplémentaire de l'évolution du mix énergétique mondial."

    https://phys.org/news/2020-01-global-energy-years.html

    RépondreSupprimer
    Réponses
    1. (...) Les combustibles fossiles diminuent, mais dominent toujours. (...)

      Ce qui est TOTALEMENT FAUX, car, le pétrole est abiotique et comme l'eau, il n'en manque pas une goutte depuis des millions d'années. Voir pour l'exemple les derricks non démontés lorsque la nappe est 'vidée' (manque de pression). Une dizaine d'années plus tard... Le pétrole ressort au derrick ! Çà alors ?!

      Comparativement aux nappes d'eaux s'il y a x millions de personnes dessus qui y puisent dedans: l'eau se raréfie et peut manquer, mais, la nappe continue de se reremplir.

      Il faut donc chercher une autre nappe (de pétrole ou d'eau) en attendant que la première se reremplisse.

      Le pétrole est fabriqué grâce au magma qui recycle continuellement ses composants.

      Supprimer
  18. Visualiser les réactions chimiques avec la thermographie infrarouge


    10 JANVIER 2020
    par Ecole Polytechnique Federale de Lausanne



    La thermographie infrarouge (IR) est utilisée pour déterminer la température des organismes et des objets avec une grande précision sans interférer avec le système. Une seule image prise avec une caméra infrarouge peut capturer la même quantité d'informations que des centaines à des millions de capteurs de température à la fois. De plus, les caméras IR modernes peuvent atteindre des fréquences d'acquisition rapides de plus de 50 Hz, ce qui permet d'étudier des phénomènes dynamiques à haute résolution.

    Maintenant, les scientifiques de l'EPFL ont conçu un réacteur qui peut utiliser la thermographie infrarouge pour visualiser les réactions dynamiques de surface et les corréler avec d'autres méthodes d'analyse rapide des gaz pour obtenir une compréhension globale de la réaction dans des conditions en évolution rapide. La recherche a été dirigée par Robin Mutschler et Emanuele Moioli au laboratoire d'Andreas Züttel (EPFL et Empa) et ils ont collaboré avec des chercheurs de l'Université polytechnique de Milan.

    Les scientifiques ont appliqué leur méthode aux réactions catalytiques de surface entre le gaz carbonique et l'hydrogène, y compris la réaction de Sabatier, qui peut être utilisée pour produire du méthane synthétique à partir d'énergies renouvelables en combinant le gaz carbonique de l'atmosphère et le H2 de la séparation de l'eau, permettant ainsi la synthèse de synthétique renouvelable combustibles aux propriétés similaires à leurs homologues fossiles, c'est pourquoi la réaction de Sabatier a récemment attiré beaucoup d'attention. Un catalyseur est nécessaire dans la réaction de Sabatier pour activer le gaz carbonique relativement inerte comme réactif.

    En particulier, les chercheurs de l'EPFL se sont concentrés sur l'étude des phénomènes de réaction dynamique se produisant pendant l'activation de la réaction à partir de différents états initiaux du catalyseur.

    "La réaction sur le catalyseur est favorisée par une surface hydrogénée tandis qu'une exposition au gaz carbonique empoisonne le catalyseur et inhibe une activation rapide de la réaction", explique Mutschler.

    «Grâce à cette nouvelle approche, nous avons pu visualiser de nouveaux phénomènes de réaction dynamique jamais observés auparavant», explique Moioli.

    Dans leur travail, ils ont montré le catalyseur fonctionnant et répondant aux changements dans la composition du gaz d'alimentation et lors de son activation à partir de différents états initiaux en temps réel pour la première fois. Grâce à leurs résultats, le comportement de démarrage et d'activation de la réaction est maintenant mieux compris et il peut conduire à des conceptions optimisées de réacteurs et de catalyseurs pour améliorer les performances de ces systèmes de réacteurs fonctionnant dans des conditions dynamiques.

    Ceci est crucial car les énergies renouvelables fournissent généralement de l'énergie et des réactifs de manière stochastique et, par conséquent, les réacteurs convertissant l'énergie renouvelable en combustibles doivent être adaptés pour fonctionner dans des conditions dynamiques dans certaines circonstances.

    https://phys.org/news/2020-01-visualizing-chemical-reactions-infrared-thermography.html

    RépondreSupprimer
  19. Se préparer à l'économie de l'hydrogène


    9 JANVIER 2020
    par l'Université de Sydney


    Dans une première mondiale, des chercheurs de l'Université de Sydney ont trouvé des preuves de la façon dont l'hydrogène provoque la fragilisation des aciers. Lorsque l'hydrogène pénètre dans l'acier, il rend le métal fragile, ce qui entraîne des défaillances catastrophiques. Cela a été l'un des défis majeurs pour progresser vers un avenir plus vert et alimenté en hydrogène, où les réservoirs et les pipelines en acier sont des composants essentiels qui doivent pouvoir survivre dans des environnements d'hydrogène pur.

    Publié dans Science, les chercheurs ont découvert que l'hydrogène s'accumule au niveau des microstructures appelées dislocations et aux frontières entre les cristaux individuels qui composent l'acier.

    Cette accumulation affaiblit l'acier le long de ces caractéristiques, conduisant à une fragilisation.

    Les chercheurs ont également trouvé la première preuve directe que des amas de carbure de niobium dans l'acier piègent l'hydrogène de telle manière qu'il ne peut pas facilement se déplacer vers les dislocations et les limites cristallines pour provoquer une fragilisation. Cet effet a le potentiel d'être utilisé pour concevoir des aciers qui peuvent résister à la fragilisation.

    Le chercheur principal, le Dr Yi-Sheng Chen, du Centre australien de microscopie et de microanalyse et de la Faculté de génie de l'Université de Sydney, a déclaré que ces résultats étaient une étape importante pour trouver une solution sûre pour produire, stocker et transporter l'hydrogène.

    "Ces résultats sont essentiels pour la conception d'acier résistant à la fragilisation; les carbures offrent une solution pour garantir que les aciers à haute résistance ne sont pas sujets à une rupture précoce et à une ténacité réduite en présence d'hydrogène", a déclaré le Dr Chen.

    Se préparer à l'économie de l'hydrogène

    L'auteur principal, le professeur Julie Cairney du Centre australien de microscopie et de microanalyse et de la Faculté de génie de l'Université de Sydney, a déclaré que ces résultats étaient une étape positive vers la mise en œuvre de carburants propres.

    «L'hydrogène est une source de carburant à faible teneur en carbone qui pourrait potentiellement remplacer les combustibles fossiles. Mais l'utilisation de l'acier, le matériau d'ingénierie le plus important au monde, pose des défis pour le stocker et le transporter en toute sécurité. Cette recherche nous donne des informations clés sur la façon dont nous pourrions être capable d'améliorer cette situation ", a déclaré le professeur Cairney.

    Travaillant en partenariat avec CITIC Metal, les chercheurs ont pu observer directement l'hydrogène dans les microstructures des aciers grâce au microscope à sonde atomique cryogénique à la pointe de la technologie de Microscopy Australia.

    https://techxplore.com/news/2020-01-hydrogen-economy.html

    RépondreSupprimer
  20. Vers une manière plus intelligente de recharger l'aquifère



    9 JANVIER 2020
    par Brandie Jefferson,
    Université de Washington à St. Louis


    Pour reconstituer les eaux souterraines, de nombreuses municipalités injectent de l'eau récupérée dans des aquifères épuisés. L'eau injectée a été purifiée par un traitement secondaire des eaux usées et, dans certains cas, l'eau a été traitée par des processus tertiaires et peut être suffisamment propre pour être directement consommée.

    L'eau d'origine dans l'aquifère était chimiquement stable, en équilibre avec les roches environnantes, et était lentement rechargée par des processus naturels (infiltration d'eau). Cependant, lorsque plus d'eau souterraine est consommée que les processus naturels ne peuvent en restaurer, une recharge technique avec de l'eau purifiée et récupérée est nécessaire. Malheureusement, au fil du temps, l'eau récupérée devient parfois contaminée.

    Une équipe de recherche de la McKelvey School of Engineering de l'Université de Washington à St. Louis, dirigée par Young-Shin Jun, professeur de génie énergétique, environnemental et chimique; et Xuanhao Wu, un étudiant au doctorat dans le laboratoire de Jun, a déterminé comment l'eau potable utilisée pour recharger un aquifère peut être contaminée par des niveaux dangereux d'arsenic.

    La recherche a été publiée dans Environmental Science and Technology.

    Dans une recharge de l'aquifère gérée, "nous tirons continuellement vers le bas l'aquifère, mais nous ne le remplissons jamais assez", a déclaré Jun.

    "Notre population peut croître rapidement et notre mode de vie devient plus dépendant de l'eau mais le processus de remplissage naturel est lent", a-t-elle déclaré. «Les pratiques de gestion de l'eau ont donc conçu un moyen d'injecter de l'eau pour compenser notre consommation et atteindre la durabilité environnementale.»

    Garder les aquifères pleins est important pour plusieurs raisons. Sur les côtes, l'eau de mer salée peut remplir un aquifère appauvri, créant une situation désastreuse pour l'écosystème et les cultures que l'aquifère nourrit. Et, si la zone épuisée reste vide, des gouffres peuvent se produire et le terrain peut se calmer. Ainsi, le remplissage des aquifères pour fournir de l'eau potable est une pratique courante dans des endroits de la Californie à la Floride.

    Mais il y a environ 10 ans, en travaillant sur la recharge gérée des aquifères avec l'Environmental Protection Agency (EPA), Jun a rencontré une situation déroutante.

    "Quand nous avons injecté de l'eau, c'était bon", a-t-elle dit, "mais quand nous l'avons retiré, c'était mauvais, contaminé par de l'arsenic. Qu'est-ce qui n'allait pas ?"

    Il s'est avéré que même si l'eau injectée dans l'aquifère était généralement suffisamment propre pour être bu, elle apportait quelque chose de nouveau à l'aquifère: l'oxygène.

    "En injectant de l'eau récupérée, nous déclenchons la dissolution oxydative des minéraux sulfurés dans l'aquifère, qui étaient stables à de faibles niveaux d'oxygène", a-t-elle déclaré. Elle a notamment étudié l'arsénopyrite (FeAsS), un minéral qui se dissout dans le fer, le soufre et, surtout, l'arsenic. Mais avant que l'arsenic ne puisse atteindre des niveaux problématiques, une autre réaction a lieu.

    RépondreSupprimer
  21. "Le fer se précipite en oxydes ou hydroxydes de fer", a expliqué Jun. L'arsenic s'adsorbe ou adhère aux oxydes ou hydroxydes de fer, qui sont insolubles, gardant l'arsenic hors de l'eau.

    Il existe cependant un autre facteur important.

    La matière organique dissoute (DOM) - composés qui contiennent du carbone - change radicalement la situation. "Avec des niveaux élevés de composés organiques, nous avons constaté que la réaction de précipitation est supprimée", a déclaré Jun. Lorsque la précipitation des oxydes ou hydroxydes de fer est supprimée, l'arsenic ne s'adsorbe pas suffisamment. Au lieu de cela, il reste disponible dans l'eau.

    Jun ne tarde pas à souligner qu'il s'agit plus qu'un exercice expérimental en laboratoire. "Ce n'est pas un problème futur potentiel", a-t-elle déclaré, notant que l'utilisation de l'eau récupérée est actuellement une pratique réelle. "Lorsque nous pensons à la récupération de l'eau des aquifères, nous devons considérer les rôles de la matière organique", a déclaré Jun.

    "Nous devons prendre en compte les DOM dans l'eau injectée pour nous assurer qu'ils ne déclenchent pas plus de mobilisation de toxines", a déclaré Jun. «Les rôles des DOM dans la recharge gérée des aquifères devraient être inclus dans les modèles prédictifs. Savoir comment la chimie de l'eau modifie les réactions chimiques dans un aquifère nous permettra d'utiliser pleinement l'eau, plutôt que de la rejeter comme déchet.

    "Veuillez garder à l'esprit qu'il n'y a qu'un seul type d'eau dans le monde", a-t-elle déclaré.

    "Toute l'eau - eau potable, eau de mer, eaux souterraines, eaux usées, eaux pluviales, eaux grises, etc. - est simplement de l'eau. Le garder sûr et durable est notre devoir continu. "

    https://phys.org/news/2020-01-smarter-recharging-aquifer.html

    RépondreSupprimer
    Réponses
    1. (...) L'eau d'origine dans l'aquifère était chimiquement stable, en équilibre avec les roches environnantes, et était lentement rechargée par des processus naturels (infiltration d'eau). Cependant, lorsque plus d'eau souterraine est consommée que les processus naturels ne peuvent en restaurer, une recharge technique avec de l'eau purifiée et récupérée est nécessaire. Malheureusement, au fil du temps, l'eau récupérée devient parfois contaminée. (...)

      Ci-dessus l'exemple-même du mensonge !

      L'eau des nappes phréatique (comme celle des sources) est claire, sans odeur et sans bactérie car elle provient du magma où est chauffée/brûlée l'eau infiltrée des bassins maritimes & océanique.

      Ce qu'ils appellent 'recharge technique' s'appelle aussi L'escroquerie des stations dites d'épuration ! Constructions inutiles qui coûtent très cher aux citoyens car, même si l'eau des rivières peut être sale elle va à la mer où c'est pire ! (les poissons chient dedans). L'eau des mers & océans s'infiltre donc aux fonds des bassins GRATUITEMENT où elle est purifiée GRATUITEMENT et remonte aux nappes phréatique GRATUITEMENT !

      Depuis des millions d'années il y a des milliards de km³ d'eaux douces (venus des pluies, des fleuves & des rivières) qui se sont déversés dans les mers & océans... SANS QU'ELLES OU ILS NE MONTENT !!! Çà alors ! Tout simplement parce que l'eau s'infiltre continuellement dans les planchers océaniques et maritimes vers le magma où cette soupe toxique (les poissons chient dans la mer !) y est chauffée/bouillie et remonte donc (comme dans une cafetière électrique) vers les sources (chaudes ou froides suivant l'altitude) et vers les nappes phréatique qu'elle remplit.

      Supprimer

  22. Gouvernance de l'eau: moins pourrait parfois être plus ?


    10 JANVIER 2020
    par l'Université de Genève



    Des chercheurs de l'UNIGE et de l'UNIL ont analysé la gouvernance de l'eau dans six pays européens à partir de 1750. Ils ont démontré qu'il y avait une tendance inflationniste dans le nombre de réglementations et que - loin d'améliorer la situation - cela avait conduit à de graves dysfonctionnements du système.

    L'utilisation des ressources environnementales est réglementée depuis des siècles dans le but d'améliorer en permanence la gestion et le comportement des acteurs privés et publics. Mais, l'introduction sans fin de nouveaux règlements a-t-elle vraiment un effet positif ? Ou bien, une surabondance de règles provoque-t-elle des dysfonctionnements et conduit-elle à des chevauchements inquiétants ? Pour tenter de répondre à ces questions, des chercheurs des Universités de Genève (UNIGE) et Lausanne (UNIL), Suisse, ont analysé les réglementations de gouvernance de l'eau dans six pays européens à partir de 1750 à 2006. Leurs résultats, publiés dans la revue Ecological Economics, montrent que les règles conçues pour améliorer la gestion des ressources finissent par entrer en conflit à long terme, créant un nombre égal d'effets positifs et négatifs jusqu'à ce que le système s'effondre. À ce stade, la seule issue est pour l'État de revoir la gouvernance.

    Les sociétés ont établi des règles pour contrôler les comportements et les utilisations des ressources naturelles telles que l'eau depuis des siècles. Dans le même temps, cependant, les intérêts concurrents des acteurs étatiques et privés continuent de produire des problèmes environnementaux. Globalement, la littérature scientifique s'accorde à dire que l'évolution de la structure de ces réglementations est néanmoins de plus en plus positive et efficace. Mais dans quelle mesure est-ce vraiment le cas à long terme ?

    «Pour évaluer si une réglementation est positive à long terme, vous devez prendre en compte l'écosystème de règles dont elle fait partie et qu'elle peut soit renforcer, soit perturber», explique Thomas Bolognesi, chercheur à l'Institut des sciences de l'environnement. (ISE) chez UNIGE. En fait, une règle qui induit un impact positif sur l'utilisation qu'elle réglemente peut provoquer des troubles une fois qu'elle commence à interagir avec les réglementations existantes, entraînant un dysfonctionnement de l'ensemble du système, conçu ici comme des coûts de transaction transversaux (TTC).

    "Et à très long terme", ajoute Bolognesi, "l'effet négatif des TTC peut croître et finir par être équivalent à l'effet positif généré par la nouvelle réglementation, créant ce que nous avons appelé un piège de complexité institutionnelle". La qualité de la gouvernance repose donc sur deux composantes clés: le périmètre, c'est-à-dire l'ensemble des usages régis par les règles (quantité); et la cohérence, c'est-à-dire le fait que les règles sont définies et suivies correctement (qualité).

    Des améliorations successives du système conduisent à un point de rupture

    RépondreSupprimer
  23. Pour tester leur hypothèse, Bolognesi et Stéphane Nahrath, professeur à la Swiss Graduate School of Public Administration (IDHEAP) de l'UNIL, ont examiné les systèmes de gouvernance de l'eau dans six pays européens (Suisse, Belgique, Espagne, France, Italie et Pays-Bas) de 1750 à 2006. «Le but de l'étude était de déterminer si l'augmentation du champ d'application de la gouvernance réduisait la cohérence à l'échelle du système et allait même jusqu'à neutraliser les effets positifs prévus par la réglementation supplémentaire», explique le professeur Nahrath. Les chercheurs ont identifié trois phases distinctes dans l'évolution de la gouvernance dans les six pays.

    La première phase, qui a duré de 1750 à 1850 et a été suivie d'environ 50 ans de stagnation, a couvert le lancement du processus de gouvernance, c'est-à-dire la production de règles-cadres qui ont eu relativement peu d'impact. De 1900 à 1980, la gouvernance s'est développée et les règles, qui ont gagné en précision, ont généré des effets positifs importants. Mais depuis 1980, nous sommes entrés dans une phase où l'effet indirect négatif, lié à une baisse de cohérence du système, s'est renforcé et compense l'effet positif antérieur, au point même de le supplanter. "Cela est dû à la création d'une profusion de nouvelles règles, en particulier à la suite de l'introduction de la nouvelle approche de la gestion publique dans les années 80", explique Bolognesi. Cette prolifération de réglementations, parfois conçues pour réglementer le même domaine mais selon des modalités différentes, a eu un impact négatif indirect sur la gouvernance et a entraîné une diminution de l'efficacité et de la clarté, conduisant à un dysfonctionnement systémique.

    "Par conséquent, pour obtenir un effet positif, aussi mince soit-il, de plus en plus de règles doivent être produites, augmentant le risque de dysfonctionnement et conduisant à un cercle vicieux", explique Nahrath.

    Système réformé par l'État

    Contrairement à l'idée répandue selon laquelle la gouvernance de l'eau s'améliore constamment, l'étude des chercheurs de l'UNIGE et de l'UNIL montre les conflits provoqués par l'introduction répétée de nouvelles règles destinées à accroître l'efficacité du système. "Si nous continuons de la même manière, nous allons atteindre le point de rupture", explique Bolognesi. "C'est pourquoi nous pensons qu'il est important que la politique de l'État et du gouvernement prenne en charge les questions de gouvernance environnementale. De cette façon, nous pouvons éviter d'introduire des règles distinctes qui génèrent des frictions et des incertitudes, et qui pourraient créer des obstacles insurmontables pour coordonner le système."

    Le professeur Nahrath déclare: "Les règles contractuelles ne doivent en aucun cas prévaloir sur les règles étatiques".

    https://phys.org/news/2020-01-water-governance-could-less-sometimes.html

    RépondreSupprimer
    Réponses
    1. (...) des chercheurs des Universités de Genève (UNIGE) et Lausanne (UNIL), Suisse, ont analysé les réglementations de gouvernance de l'eau dans six pays européens à partir de 1750 à 2006. Leurs résultats, publiés dans la revue Ecological Economics, montrent que les règles conçues pour améliorer la gestion des ressources finissent par entrer en conflit à long terme, créant un nombre égal d'effets positifs et négatifs jusqu'à ce que le système s'effondre. À ce stade, la seule issue est pour l'État de revoir la gouvernance. (...)

      Effectivement la Suisse (Démocratie) a examiné les dictatures proches: la Belgique, l'Espagne, la France, l'Italie et les Pays-Bas et, effectivement à ce stade, la seule issue est pour l'État de revoir la gouvernance ! Hahaha !

      Supprimer