- ENTREE de SECOURS -



vendredi 20 décembre 2019

Pauvreté en France : mesure, biais et insuffisances

Explication de la méthode de mesure de la pauvreté : en réalité il s’agit d’une mesure des inégalités. Et les statistiques montrent qu’à la fois la pauvreté et les inégalités ont diminué.


20 DÉCEMBRE 2019 
Par Bertrand Nouel.
Un article d’Entrepreneurs pour la France

L’INSEE publie régulièrement, avec une célérité assez appréciable, ses statistiques sur la pauvreté et les inégalités en France. C’est ainsi que tous les chiffres des indicateurs sont disponibles jusqu’à l’année 2017 comprise, et partiellement pour 2018.

La méthode utilisée par l’INSEE pour calculer la pauvreté, et qui est celle adoptée par Eurostat pour l’ensemble des pays d’Europe, comprend des biais et la lecture des statistiques conduit fréquemment dans les médias et les discours politiques à des erreurs qu’il importe de redresser, ce qui fera l’objet des études que nous allons présenter.

Ces études sont divisées en trois parties dont la première vous est présentée aujourd’hui, les autres les semaines suivantes.

Cette première partie est consacrée à l’explication de la méthode de mesure de la pauvreté, qui fera ressortir qu’en réalité il s’agit d’une mesure des inégalités, et que les statistiques montrent qu’à la fois la pauvreté et les inégalités ont diminué.

La seconde partie traite d’un biais rarement rappelé, qui tient au fait que la pauvreté après redistribution est calculée à partir du niveau de vie, donc des revenus, et n’inclut pas les « prestations affectées » en nature, ce qui diminue artificiellement la mesure de pouvoir d’achat de leurs bénéficiaires.

Enfin, la troisième partie traitera de certains facteurs explicatifs de la pauvreté, et tentera une conclusion générale.

UNE MESURE DE L’INÉGALITÉ, NON DE LA PAUVRETÉ


Les mesures de la pauvreté des niveaux de vie en France sont des mesures des inégalités, lesquelles ont plutôt diminué durant la vingtaine d’années écoulées.

Il y a plusieurs méthodes pour mesurer la pauvreté. Chacune a ses avantages et ses inconvénients. Certains pays comme les États-Unis se réfèrent à la pauvreté monétaire absolue, méthode qui tente de calculer un chiffre de revenu en monnaie tel qu’il soit de nature à satisfaire les besoins essentiels des individus.

Cette méthode introduit des biais considérables tenant à la variabilité et à la subjectivité des choix à opérer pour qualifier les besoins essentiels. Une autre méthode pourrait aller totalement dans le sens de la subjectivité en enquêtant sur la pauvreté ressentie.

En France, une méthode accessoire cherche à déterminer la pauvreté en conditions de vie et c’est ainsi que l’INSEE a établi une liste de 27 critères, étant entendu qu’une réponse positive à au moins 8 d’entre eux suffit à qualifier la situation de pauvreté. Mais la méthode la plus utilisée en Europe, et en France, est celle de la pauvreté monétaire relative, et c’est celle que nous retenons pour l’analyse qui va suivre.

La méthode retenue consiste à effectuer un calcul relatif par comparaison avec le niveau de vie médian des Français, qui est le seuil des revenus du décile D51 de la population (la moitié des Français gagne plus, l’autre moitié gagne moins). On retient au choix deux chiffrages possibles, l’un à 50 % du revenu médian, l’autre à 60 % de ce dernier. On observera que le seuil à 50 % était celui retenu à l’origine, mais que de nos jours on a tendance à retenir le seuil de 60 % ; néanmoins un organisme officiel comme l’Observatoire des inégalités explique qu’il préfère continuer d’utiliser le seuil de 50 %.

Il est évident que la différence est considérable entre les deux méthodes. On rappellera par ailleurs que la pauvreté se calcule uniquement à partir des revenus : on calcule d’abord les revenus primaires des individus (y compris ceux du patrimoine, mais à l’exclusion de la valeur de ce dernier), puis on les corrige des effets redistributifs de la fiscalité et des prestations reçues. Nous verrons que cette notion de prestations conduit à un biais que nous traiterons dans la deuxième partie de l’étude.

Notons enfin que le calcul s’effectue par ménage et non pas par individu, ce qui permet de tenir compte de ce que le niveau de vie est évidemment différent pour un même revenu suivant que les dépenses peuvent ou non être mutualisées au sein d’un même foyer2. C’est ainsi qu’un adulte compte pour une « unité de consommation », le second adulte d’un même foyer compte pour 0,5 unité, et chacun des enfants jusqu’à 14 ans compte pour 0,3 unité.

La méthode française conduit donc à mesurer les inégalités par rapport au niveau de vie de la médiane des Français. Le corollaire mécanique en est que plus ce niveau augmente, plus le nombre des personnes pauvres doit augmenter lui aussi, à supposer que leur niveau de vie reste constant en valeur absolue.

Nous verrons cependant que cela ne se constate pas vraiment dans les faits. En période de hausse du niveau de vie médian, les catégories pauvres profitent davantage de la croissance, cependant qu’en période de vaches maigres, la protection sociale joue de même plus en faveur de ces catégories pauvres.

Le tableau ci-dessous, dont les chiffres ont pour source l’INSEE, présente divers indices évoluant entre 1996, première année disponible, et 2017. L’année 2008 a été choisie parce que c’est l’année de la base 100 pour les niveaux de vie, et l’année la plus faste pour tous. En 2010 les effets de la crise commencent à se faire sentir, ces effets sont au maximum en 2012, et 2017 témoigne d’une remontée des niveaux de vie pour tous.

Pour certains indices, nous avons présenté les chiffres correspondant au calcul de la pauvreté à 60 % du niveau de vie médian ainsi que ceux correspondant à 50 % de ce niveau.

Nous avons aussi présenté certains indices après redistribution et d’autres avant redistribution, ce qui fait ressortir l’efficacité de la redistribution.

Évolution des indicateurs de pauvreté et des inégalités depuis 1996


CONCLUSIONS À RETENIR

1. Le nombre de personnes pauvres au seuil de 60 % a augmenté en chiffres absolus de 7,2 % entre 1996 et 2017. Ce chiffre est cependant à comparer à l’évolution de la population française, qui a augmenté quant à elle durant la même période de 12,3 %.

En chiffres relatifs, le nombre de personnes pauvres a donc diminué globalement sur la période, du fait d’une diminution notable entre 1996 et 2008. En revanche, le rapport s’inverse entre 2008 et 2017, en raison d’une forte augmentation du nombre de personnes pauvres (plus 800000) dans les deux années qui ont suivi l’apparition de la crise en 2008.

Mais après 2010 le rapport s’inverse de nouveau, puisque le nombre de personnes pauvres n’augmente que d’un peu plus de 100 000 (1,3 %) alors que la population augmente de 3,4 %.

L’importance de la démographie évoluant en rapport avec l’immigration est encore révélée par les dernières statistiques émanant du Secours catholique : la proportion des étrangers secourus est en effet passée en dix ans de 30 % à 40 %. Dans le même temps, le Secours catholique constate une hausse notable des personnes n’ayant aucun revenu, et de celles tombées dans l’extrême pauvreté. Bien que l’organisation ne donne pas l’information, ces dernières constatations paraissent logiquement en rapport avec la hausse des étrangers secourus.

2. La période examinée a été marquée de façon générale par la crise de 2008, et peut être divisée en deux parties principales. Les niveaux de vie ont ainsi fortement augmenté entre 1996 et 2008 (année de la base 100 de l’INSEE).

On remarque que le premier décile (D1) de la population est celui qui a le plus profité, aussi bien après qu’avant redistribution, mais encore plus avant redistribution. Le fait que ce niveau ait augmenté plus encore avant distribution indique que la croissance générale de l’économie est le meilleur garant, par rapport à la redistribution, de l’amélioration de la situation des classes pauvres.

Après 2008 d’ailleurs, la situation s’inverse pour tous, mais légèrement plus défavorablement pour le premier décile. Cette fois cependant, contrairement à la période précédente, c’est avant redistribution que le premier décile souffre le plus (chute de 100 à 86,7), alors qu’après redistribution le niveau de vie se maintient quasiment (chute de 100 à 98,7). C’est une confirmation, s’il en était besoin, de l’efficacité de la redistribution en période de vaches maigres.

3. Sur la totalité de la période examinée, le seuil de pauvreté à 60 % est passé de 875 euros mensuels à 1041 euros (+19 %), et le seuil à 50 % de 729 euros à 867 euros (+19 % également). Il s’agit d’euros 2017, donc constants. Ceci est à rapprocher du niveau de vie médian des personnes pauvres, qui passe de 698 à 837 euros (+ 20 %).

Cette comparaison indique que dans les faits le niveau de vie médian des personnes pauvres a augmenté exactement comme le seuil de pauvreté (et même mieux), donc dans les mêmes proportions que le niveau de vie du décile D5 (revenu médian).
On notera que le niveau de vie médian des personnes pauvres a néanmoins baissé de 832 euros à 804 euros entre 2008 et 2012, pour remonter à 837 euros en 2017.

Comme nous l’avons indiqué, du fait que la mesure de la pauvreté est en réalité une mesure des inégalités, on pourrait attendre que plus le niveau de vie du décile D5 augmente, plus le nombre de pauvres augmente du fait de la hausse du seuil de pauvreté qui évolue comme le niveau de vie de D5. On constate donc qu’il n’en est rien.


4. Les autres indicateurs vont dans le même sens :

le taux de pauvreté à 60 % baisse de 14,6 à 14,1 sur la période globale, et le taux à 50 % baisse également de 8,3 à 8,0 ;
le rapport D9/D1 passe de 3,50 à 3,41 après redistribution, alors qu’il se détériore avant distribution, de 5,87 à 6,31, ce qui confirme encore l’efficacité de cette redistribution à compter de 2012 ;
enfin, l’indice de Gini3 passe de 0,282 à 0,289 après redistribution, soit une quasi-stabilité, alors qu’il se détériore, de 0,358 à 0,374 avant redistribution.

EN RÉSUMÉ PROVISOIRE, NOUS RETENONS :

que la mesure de la pauvreté par la méthode de la pauvreté monétaire relative est la meilleure car la moins subjective, mais qu’elle mesure essentiellement l’évolution des inégalités, et repose sur une convention arbitraire, à savoir le pourcentage de 60 % retenu pour le seuil de pauvreté ;
que sur longue période, depuis 1996, les divers indicateurs montrent une diminution relative du nombre de personnes pauvres ainsi qu’une stabilité des inégalités, et ce, grâce à la redistribution à la française qui prend le relais de la croissance lorsque celle-ci fait défaut ;
que la crise de 2008 a néanmoins causé une inversion nette de l’évolution positive connue pendant la longue période antérieure, commençant avec les Trente glorieuses et s’étendant au-delà (de 1996 à 2008, baisse de 4% du nombre de personnes pauvres pendant que la population augmente de 10,7 %).

Ce phénomène est très important pour comprendre le sentiment de pauvreté. Après de longues années d’amélioration de leur niveau de vie pendant lesquelles elles peuvent laisser leurs dépenses contraintes croître, les catégories les plus pauvres ne peuvent que ressentir leur situation comme affectée par une baisse de leur niveau de vie d’autant plus insupportable qu’elle est réelle entre 2008 et 20154. Le phénomène est encore aggravé par des considérations sociologiques comme la démographie (hausse du pourcentage d’étrangers relevée par le Secours catholique) ou la forte montée du nombre de ménages monoparentaux. Le chômage et les difficultés particulières de logement jouent aussi leur rôle négatif.


Sur le web:


1 - La lettre « D » signifie décile. Les niveaux de vie sont divisés en dix déciles, et chaque décile est la valeur qui sépare deux tranches. Le premier, D1, correspondant aux revenus inférieurs au seuil qui sépare le premier du deuxième décile, et le neuvième au seuil qui sépare D9 des revenus supérieurs. D5 sépare ainsi le cinquième du sixième décile.

2 - Cette méthode est d’autant plus pertinente à l’heure actuelle que le nombre de familles monoparentales a fortement augmenté dans les dernières décennies et que précisément la proportion de pauvres dans ces familles est très forte. 

3 - L’indice de Gini est un indicateur synthétique (toutes catégories confondues) des inégalités, consistant à comparer la droite théorique d’égalité parfaite avec la courbe dite de Lorentz, qui constate la part des revenus par rapport à la part de la population. L’indice varie de 0 (égalité parfaite) à 1. 

4 - Le point le plus bas des revenus après redistribution se situe en 2012, et il tend à remonter lentement depuis, jusqu’à tangenter les chiffres de 2008, mais s’agit-il d’une tendance positive longue ou seulement provisoire ? 

46 commentaires:

  1. Les Français n’aiment pas la richesse !
    Ils auront la pauvreté !


    Par Gérard Dosogne,
    le jeudi 28 mars 2019


    Les Français ne veulent pas travailler plus, ni se mettre au niveau de leurs voisins Européens en termes de temps de travail : profitons de la vie !! Pas de problème, il existe une solution : la monnaie. Il faut que la France sorte de l’Euro et accepte une baisse de valeur de ses actifs et un appauvrissement de la population.

    J’ai récemment écrit un article sur la renaissance de l’Europe, suite à la lettre ouverte d’Emmanuel Macron. On a tous pu lire que « AKK », la dauphine d’Angela Merkel, avait une analyse proche de la mienne : il faut faire converger les politiques sociales et fiscales pour établir une base commune et forte, nécessaire au développement d’une Europe forte, qui comptera sur la scène internationale.

    La France se distingue par un temps de travail sur la durée de vie le plus bas d’Europe et les prélèvements fiscaux les plus hauts par rapport au PIB. Donc une convergence vers la moyenne Européenne impose deux conditions incontournables : travailler plus et abaisser la pression fiscale pour se mettre au niveau de ses voisins.

    Mais qui dit revenir aux 39 ou 40 heures hebdomadaires, à 4 semaines de congés payés, à la retraite à 65 ou 67 ans est taxé chez nous de fou, doux utopiste ou dangereux agitateur : le Français veut travailler le moins possible. Point final ! Le Français n’est ni un Allemand, ni un Suisse, ni un Hollandais, ni un Américain, ni, etc.

    Un sondage ce dimanche 24 mars confirme ce diagnostic : plus de 60% des Français interrogés refusent de travailler plus par semaine, par an et sur leur durée de vie en refusant le report de l’âge de la retraite.

    Ça tombe bien ! les Français n’aiment pas la richesse ! (des autres…) et le seul moyen de sortir de la crise en France, de la désindustrialisation, du chômage de masse et de la stagnation des revenus (avec baisse de pouvoir d’achat), du déficit abyssal du commerce extérieur et des comptes publics, c’est d’utiliser la troisième variable d’ajustement : la monnaie. Le niveau de sa monnaie par rapport aux autres, représente la richesse relative d’un pays et sa valeur est fortement liée à la compétitivité du pays.

    La monnaie a été la variable d’ajustement utilisée par les gouvernements français durant les fameuses 30 glorieuses ! Un franc suisse valait 1 franc français en 1970, et aujourd’hui 1,10… euros, soit 7 francs Français ! Et ce fut vrai entre 1950 et 1990 avec l’Allemagne, la Hollande ou la Belgique. C’est totalement indolore, et on redonne de la compétitive à nos produits, non pas grâce à l’amélioration de la qualité ou de la productivité ou la montée en gamme, mais parce que la France « solde » ! On appelle d’ailleurs cela la dévaluation compétitive…

    RépondreSupprimer
  2. Si la France et les Français refusent les réformes structurelles, il faudra (volontairement ou involontairement) sortir de l’euro et renoncer au « bouclier » dont nous avons profité des avantages, tout en repoussant les devoirs et contraintes. Au bout de 15 ans, ça craque. Savez-vous qu’en 15 ans le PIB par habitant de la France s’est dégradé de 15% par rapport à celui de l’Allemagne ? Donc 15% de dévaluation nous remettrait à niveau… mais en supposant que l’on fasse quand même quelques réformes, sinon le processus continuera inexorablement et la France et les Français seront, relativement, de plus en plus pauvres (donc heureux ??)

    L’addition arrive.
    Ils s’en fichent… la France est un si beau pays.

    https://entrepreneurs-pour-la-france.org/Les-impasses/Les-inegalites/article/Les-Francais-n-aiment-pas-la-richesse

    RépondreSupprimer
    Réponses
    1. Évitons de 'parler pour les autres' au travers de FAUX sondages des merdias où les français diraient qu'ils sont contre la richesse ! Hahaha !

      Les français comme tous les gens du monde ont compris qu'aujourd'hui existent les machines qui travaillent gratos ! Voulez-vous travailler pour moins cher que les machines ?

      Le monde a besoin de robots (esclaves) afin de pouvoir se reposer sur le progrès.

      Pareil que le racisme (mot inventé par les merdias), la haine des personnes riches est un mensonge développé par les merdias et répété continuellement par eux !

      La dictature chasse les riches et veut voler tous les revenus qu'ils osent avoir ! C'est pourquoi existe ces deux mondes, les intellectuels milliardaires et les faux intellectuels fonctionnaires jaloux.

      Ne sachant et ne pouvant s'en sortir d'eux mêmes, les dictateurs sont éternellement coincés dans la planche-à-billets pour émettre des images de Mickeys sans valeurs afin de payer les esclaves. Tandis que les milliardaires savent que l'argent doit tourner pour être valorisé. C'est pourquoi la machine et l'ordinateur auront raison de tout !

      L'humain DEVRA vivre de rentes (allocations) et non plus être aux ordres et à la botte des psychopathes qui dirigent !

      Supprimer
  3. Exposition aux écrans : va-t-on fabriquer des crétins ?

    Plus les enfants sont issus d’un milieu défavorisé, plus ils sont exposés aux écrans et les usages des parents sont déterminants.


    20 DÉCEMBRE 2019
    Par Farid Guéham.
    Un article de Trop Libre


    Dans son ouvrage La fabrique du crétin digital, Michel Desmurget nourrit sa réflexion de nombreuses études consacrées aux effets néfastes des écrans pour le développement intellectuel des jeunes publics. Ce titre est par ailleurs une référence à l’ouvrage de Jean Paul Brighelli, La Fabrique du Crétin : la mort programmée de l’école. Pour l’auteur, l’exposition des plus jeunes aux écrans est une question de santé publique.

    Michel Desmurget compare l’addiction aux écrans à celle au tabac ou au sucre. Mais s’agit-il des mêmes mécanismes de dépendance ? L’approche se veut plus nuancée : si le numérique apporte des avancées indéniables, tout n’est pas blanc au pays de l’innovation.

    LE VOLUME HORAIRE CONSACRÉ PAR LES JEUNES AUX ÉCRANS

    Michel Desmurget s’étonne des résultats convergents des études à travers l’Europe et dans le monde. Il affirme :

    Qu’il s’agisse de la France, des États-Unis ou de la Suède, le temps consacré par les jeunes aux écrans n’est pas excessif, il est hors-norme, extravagant !

    Chez les enfants de trois à quatre ans, nous constatons une consommation d’écrans de une à quatre heures par jour et pour les enfants de huit à dix ans, les chiffres culminent à cinq heures d’écrans par jour.

    Enfin, pour la tranche des adolescents, les chiffres deviennent surréalistes, avec près de six heures et quarante-cinq minutes d’écrans par jour.

    L’ADDICTION AUX ÉCRANS : UN PROBLÈME DE SANTÉ PUBLIQUE

    Michel Desmurget affirme que nous sommes face à un problème de santé publique, affectant tous les aspects du développement : intellectuel, émotionnel, physique.

    Les études démontrent les multiples effets nocifs, dont les troubles de sommeil, de l’attention, de l’obésité.

    La littérature scientifique démontre que ces effets se combinent les uns aux autres, accentuant les troubles du développement langagiers, de l’attention, impactant la mémorisation et la réussite scolaire.

    LE TEMPS PASSÉ DEVANT LES ÉCRANS EST UN SUBSTITUT

    Le temps d’écran remplace le plus souvent des activités structurantes et nourrissantes, à commencer par les interactions familiales, le jeu ou le sommeil.

    Chez le jeune enfant, il y a des dettes de sommeil lourdes qui sont liées au fait que la lumière émise par les écrans va allonger la durée d’endormissement, car le cerveau ne sait pas trop bien faire la différence entre cette lumière et la lumière du jour, perturbant la sécrétion de mélatonine.

    UNE RÉGULATION PUBLIQUE EST-ELLE NÉCESSAIRE ?

    Michel Desmurget rappelle que certains pays on fait le choix de l’intervention face à ce qu’ils considèrent comme un problème de santé publique :

    RépondreSupprimer
  4. A Taiwan, les parents qui exposent excessivement leurs jeunes enfants aux écrans doivent s’acquitter d’une amende.

    Mais l’auteur prône avant tout la diffusion de la littérature scientifique et des résultats à titre pédagogique et préventif.

    FUSTIGER LES ÉCRANS : UN DISCOURS RÉTROGRADE ?

    À l’image du rock’n’roll que l’on décrivait il y a 50 ans comme la musique du diable, critiquer la culture numérique ne serait-il pas la négation du potentiel qu’y trouve une génération qui se confronte et se partage, sur les réseaux sociaux ou dans les cours d’école ?

    Mais pour l’auteur, « personne ne peut nier les effets bénéfiques des écrans. » C’est la raison pour laquelle son ouvrage se concentre sur la problématique des usages du jeune public et des enfants.

    La question centrale est pour moi la réalité de ce qu’en font les enfants : une heure par jour c’est absolument colossal, en deux ans de consommation d’écrans, nous attenions quasiment la durée d’une année scolaire complète.

    LA CULTURE NUMÉRIQUE EST-ELLE UNE SOUS-CULTURE, UNE « CULTURE DE CRÉTIN » ?

    Si Michel Desmurget se défend de hiérarchiser les cultures, il reconnaît que certaines pratiques semblent avoir des effets plus structurants que d’autres. Il constate :

    Le cerveau de nos enfants est vieux ! Il a besoin de sommeil, d’activité physique. Les pédopsychiatres voient des enfants avec des retards de la parole, établissant une corrélation directe avec le temps d’exposition aux écrans. Ce qui est intéressant, c’est que maintenant les problèmes commencent à se voir, chez les professionnels de santé et les pédopsychiatres.

    FACE AUX ÉCRANS, L’ÉCOLE DOIT-ELLE RESTER UN SANCTUAIRE DE L’APPRENTISSAGE ?

    Les études démontrent que les écrans représentent une médiation intéressante pour les parents, à la condition que leur usage soit encadré. Michel Desmurget rappelle que la classe sociale est un paramètre important :

    Plus les enfants sont issus d’un milieu défavorisé, plus ils sont exposés aux écrans et les usages des parents sont déterminants. Il est important d’établir des règles comme « pas d’écran le matin ou le soir, quand on est ensemble ou pendant les repas » par exemple.

    S’il faut mettre à disposition des enfants des activités variées, Michel Desmurget rappelle enfin les vertus souvent ignorées de l’ennui, très fécond pour le développement des enfants.

    https://www.contrepoints.org/2019/12/20/360749-exposition-aux-ecrans-va-t-on-fabriquer-des-cretins

    RépondreSupprimer
    Réponses
    1. Lisez bien que ce ne sont pas les écrans qui seraient nocifs dans leur ensemble (ce qui inclurait la putain de télévision présente depuis plus de 70 ans !) mais UNIQUEMENT les écrans d'ordinateurs et de téléphone ! Hahahahaha !

      Oui ! Vous avez bien lu ! S'instruire c'est grave et pas du tout recommandable ! Donc, contentez vous des journaux et livres de merde pour vous remplir l'esprit de la Gretamoilecul, ou de la radio ou télé mais surtout, surtout n'allez pas dialoguer sur Internet ! Vous poseriez des questions où vous auriez des réponses ! Car, la Démocratie est là ! Elle dialogue AVEC VOUS ! Elle ose vous informer avec des scientifiques (interdits aux 'COP de Paris ou Madrid, etc) !

      (...) L’ADDICTION AUX ÉCRANS : UN PROBLÈME DE SANTÉ PUBLIQUE

      Michel Desmurget affirme que nous sommes face à un problème de santé publique, affectant tous les aspects du développement : intellectuel, émotionnel, physique.

      Les études démontrent les multiples effets nocifs, dont les troubles de sommeil, de l’attention, de l’obésité.

      La littérature scientifique démontre que ces effets se combinent les uns aux autres, accentuant les troubles du développement langagiers, de l’attention, impactant la mémorisation et la réussite scolaire. (...)

      Relisez vous-même le dernier paragraphe ci-dessus où le littérature scientifique serait nuisible !!! HAHAHAHA !

      C'est-à-dire que les enfants doivent se contenter d'un environnement familial con incapable à répondre à ses questions, comme à une école de cons et une télé de merde encore à l'époque des flintstones où ces hommes préhistoriques cognaient deux silex pour faire du feu ! Or, à savoir qu'une étincelle est PARFAITEMENT INCAPABLE de foutre le feu à des broussailles ou touffe de coton. Encore eut-il fallut que les Pierrafeux du dessin animé aient du pétrole ou du gaz pour enflammer l'étincelle !

      Le feu était produit par le tournoiement d'un bois dans un trou d'un autre bois sec. Cet échauffement permettait d'accéder à la combustion. Mais le plus souvent ils avaient recours à conserver les feux de foudres sur les champs ou forêts comme ceux venus des volcans.

      Supprimer
  5. L'impasse de la mise en accusation de la Chambre et du Sénat signifierait que Trump n'a pas été mis en accusation du tout: Harvard Law Prof


    par Tyler Durden
    Jeu., 19/12/2019 - 20:25


    Alors que Nancy Pelosi menace de retenir les articles de destitution adoptés mercredi soir par la Chambre, le professeur de droit de Harvard, Noah Feldman, a déclaré que le président Trump n'était techniquement pas mis en accusation jusqu'à ce que la Chambre transmette les articles au Sénat.

    Feldman, qui a témoigné devant la procédure de mise en accusation du comité judiciaire de la Chambre au début du mois, fait valoir dans un Bloomberg Op-Ed que la définition des rédacteurs de la mise en accusation «supposait que la mise en accusation était un processus, pas seulement un vote à la Chambre» et que «strictement en parlant, "la destitution" a eu lieu - et se produit - lorsque les articles de destitution sont présentés au Sénat pour procès. Et à ce moment-là, le Sénat est obligé par la Constitution de tenir un procès. "

    Si la Chambre ne communique pas sa destitution au Sénat, elle n'a pas mis en accusation le président. Si les articles ne sont pas transmis, Trump pourrait légitimement dire qu'il n'était pas du tout mis en accusation.

    C'est parce que la «mise en accusation» en vertu de la Constitution signifie que la Chambre envoie ses articles approuvés au Sénat, les directeurs de la Chambre se levant au Sénat et disant que le président est destitué.

    En ce qui concerne les titres que nous avons vus après le vote à la Chambre disant "ATOUT IMPRESSIONNÉ", ce sont des raccourcis médiatiques, pas une déclaration juridique techniquement correcte. Jusqu'à présent, la Chambre a voté pour destituer Trump (au futur). Il n'est pas destitué (passé) jusqu'à ce que les articles soient envoyés au Sénat et que les membres de la Chambre transmettent le message. -Noah Feldman

    Pelosi, quant à elle, ne transmettra pas les articles tant que le Sénat n'aura pas tenu ce qu'elle considère comme un procès "équitable".

    En gros, calqués sur les procédures de mise en accusation de l'Angleterre, les rédacteurs de l'article I de la constitution ont donné à la Chambre "le seul pouvoir de mise en accusation", tout en donnant au Sénat "le seul pouvoir de juger toutes les mises en accusation".

    L'article II souligne que le président "sera démis de ses fonctions en cas de mise en accusation et de condamnation pour trahison, corruption ou autres crimes et délits graves".

    Il y a plus:

    Mais nous pouvons affirmer avec une certaine certitude que seul le Sénat est habilité à juger l’équité de son propre procès - c’est ce que signifie le «seul pouvoir de juger toutes les accusations».

    Si la Chambre vote pour "destituer" mais n'envoie pas les articles au Sénat ou n'envoie pas de directeurs de destitution là-bas pour porter son message, elle n'a pas directement violé le texte de la Constitution. Mais la Chambre agirait contre la logique implicite de la description de la destitution par la Constitution.

    RépondreSupprimer
  6. Un président qui a été véritablement mis en accusation doit avoir constitutionnellement la possibilité de se défendre devant le Sénat. Cela fait partie de la logique constitutionnelle de la mise en accusation, qui exige un procès avant le renvoi.

    Certes, si la Chambre n'envoie jamais ses articles de destitution au Sénat, il ne peut y avoir de procès. C’est ce que signifie le «seul pouvoir de mise en accusation».

    En conclusion, Feldman dit "si la Chambre n'envoie jamais les articles, alors Trump pourrait dire avec une forte justification qu'il n'a jamais été mis en accusation", ajoutant "Et ce n'est probablement pas le message que les démocrates du Congrès espèrent envoyer".

    https://www.zerohedge.com/political/house-senate-impeachment-impasse-would-mean-trump-wasnt-impeached-all-harvard-law-prof

    RépondreSupprimer
  7. NTSB: Tesla dans un accident mortel parcourait 100 mi / h autour d'une courbe dans une zone de 30 mi / h


    par Tyler Durden
    Ven, 20/12/2019 - 09:15


    Le NTSB a finalement conclu son enquête sur un accident et un incendie survenu en 2018 à Tesla en Floride, concluant qu'une "vitesse excessive" de plus de 100 mph (161 km/h) autour d'une courbe avait provoqué l'accident. Les adolescents voyageaient sur une route avec une limite de vitesse de 30 mph (48 km/h) et un panneau avertissant les conducteurs de parcourir 25 mph autour de la courbe.

    Le NTSB a publié jeudi un rapport indiquant que la Tesla a éclaté en flammes après être entrée en collision avec un mur, piégeant deux jeunes de 18 ans que les pompiers n'ont pas pu secourir, même s'ils ont éteint l'incendie moins d'une minute après leur arrivée, selon le NY Fois.

    L'incendie qui s'est déclaré dans la batterie de la voiture a également contribué aux deux décès et le passager a également été blessé à la tête et au torse, apparemment à la suite de l'accident également. La sonde NTSB sur l'accident a été ouverte "dans le cadre d'une enquête plus large sur les accidents et incendies de véhicules électriques".

    Les pompiers qui ont répondu à la scène ont signalé des "flammes intenses" et ont dit qu'ils pouvaient voir des arcs électriques dans la voiture. Ils ont également déclaré que des morceaux de la batterie se sont détachés du véhicule.

    Le rapport du NTSB a déclaré: «Au cours de cette opération, des modules qui s'étaient séparés de la batterie se sont enflammés sur la dépanneuse lorsque les travailleurs ont passé une chaîne dessus.»

    Lorsque la voiture a été chargée sur une deuxième dépanneuse, la batterie a de nouveau pris feu et a dû être éteinte une deuxième fois. De plus, lors du déchargement de la batterie dans le remorquage, le boîtier s'est de nouveau enflammé.

    Un troisième adolescent a été jeté de la voiture et blessé. Les familles des adolescents tués ont poursuivi Tesla.

    Le conducteur avait précédemment reçu un ticket pour avoir parcouru 112 mph sur une route avec une limite de vitesse de 50 mph. Le père de l'adolescent a alors demandé à Tesla s'ils pouvaient restreindre la vitesse du véhicule. Tesla a mis la voiture en "mode prêteur", la limitant à 85 mph, mais ils ont restauré la voiture en mode vitesse normale en avril à la demande de l'adolescent.

    https://www.zerohedge.com/technology/ntsb-tesla-fatal-accident-was-traveling-100-mph-around-curve-30-mph-zone

    RépondreSupprimer
    Réponses
    1. Voitures électrique: 100 % de chance d'être grillé !

      Supprimer
  8. Procès France Télécom: l'entreprise et ses ex-dirigeants condamnés pour «harcèlement moral»


    11:45 20.12.2019


    France Télécom et ses anciens dirigeants, dont l'ex-PDG Didier Lombard, ont été condamnés vendredi à Paris pour «harcèlement moral» , dans un procès inédit qui s'est tenu dix ans après plusieurs suicides de salariés.

    L'entreprise, devenue Orange en 2013, est condamnée à l'amende maximale de 75.000 euros. Les anciens dirigeants, l'ex-PDG Didier Lombard, l'ex-numéro 2 Louis-Pierre Wenès et l'ex-DRH Olivier Barberot, ont eux été condamnés à un an de prison dont huit mois avec sursis et 15.000 euros d'amende, pour avoir mis en place une politique de réduction des effectifs «jusqu'au boutiste» sur la période 2007-2008.

    Après avoir lu des extraits du jugement pendant environ une heure, la présidence Cécile Louis-Loyant a appelé les prévenus à la barre pour détailler leur condamnation.

    Ce procès était une première pour une entreprise du CAC 40.

    Au coeur du procès, qui s'intéressait à la période 2007-2010: les plans Next et Act, qui visaient à transformer France Télécom en trois ans, avec notamment l'objectif de 22.000 départs et 10.000 mobilités sur un total de 120.000 salariés.

    «Les moyens choisis pour atteindre les 22.000 départs étaient interdits», a jugé le tribunal. C'était une réduction des effectifs «à marche forcée» . Le volontariat des départs, mis en avant par les prévenus tout au long du procès, qui s'est tenu du 6 mai au 11 juillet, n'était qu'un «simple affichage».

    Les trois ex-dirigeants ont mis la «pression sur l'encadrement», qui «a répercuté cette pression» sur les agents. Ils ont mis en place «un plan concerté pour dégrader les conditions de travail des agents afin d'accélérer leur départs». Cette politique «a créé un climat anxiogène».

    Les prévenus ont été revanche été relaxés sur la période postérieure à 2008.

    L'avocat de l'ex-PDG Didier Lombard a annoncé qu'il ferait appel de la condamnation.

    France Télécom était devenu à la fin des années 2000 le symbole de la souffrance au travail. Il y a dix ans, l'entreprise faisait la une des médias alors que plusieurs salariés s'étaient suicidés en laissant des courriers accablants contre leur employeur. Le tribunal a analysé les cas de trente-neuf parties civiles, retenues par les magistrats instructeurs. Parmi elles, dix-neuf ont mis fin à leurs jours.

    https://fr.sputniknews.com/france/201912201042631671-proces-france-telecom-lentreprise-et-ses-ex-dirigeants-condamnes-pour--harcelement-moral-/

    RépondreSupprimer
  9. « Les fonds américains veulent que le marché français s'ouvre à la capitalisation »


    Charles Sannat
    Insolentiae
    mar., 10 déc. 2019 22:21 UTC


    Scandale« Le problème n'est pas Delevoye... mais tout le reste ! » L'édito de Charles SANNAT

    Mes chères impertinentes, chers impertinents,

    Vous n'avez sans doute pas échappé à l'information selon laquelle le haut-commissaire à la Réforme des retraites Monsieur Delevoye a « oublié », dans le cadre d'une « phobie administrative », de déclarer dans sa déclaration d'intérêt, qu'il avait bien un petit truc à déclarer... du genre :

    Je suis administrateur au sein de l'Institut de formation de la profession de l'assurance (IFPASS).

    Bon, si il semble s'agir uniquement d'une fonction d'administration dans un institut de formation, cela fait tout de même désordre lorsque l'on veut donner des leçons au monde entier, enfin à tous les gens, pour qu'ils travaillent beaucoup plus longtemps, pour gagner beaucoup moins à la retraite... Comme disent les pancartes dans les manifs, « on veut des ronds, pas des points » !!

    En réalité pour bien comprendre pourquoi les gens ont les nerfs à fleur de peau avec ces histoires de conflits d'intérêt à répétition, c'est qu'ils commencent à avoir bien compris le petit manège des mamaouchis actuels, présents et futurs, dont la grande idée est de refiler le grisbi aux petits copains du privé !

    Et pour les retraites, le gâteau, il est gros. Très gros ! Pensez-donc, c'est du pain béni pour les grands vendeurs de produits financiers et autres fonds financiers, puisque si la retraite baisse, il va bien falloir capitaliser.

    La stratégie en deux points !

    Premièrement, réformer via la loi PACTE, l'épargne retraite des Français, qui ont désormais accès au PER, le Plan Epargne Retraite, que vous allez pouvoir abonder en déduisant vos versements de vos impôts (dans la limite du disponible fiscale mentionné sur votre avis d'imposition).

    Deuxièmement faire une « réforme » des retraites par points et universelle, qui sera universellement plus basse pour tout le monde.

    Conclusion logique ?

    Les gueux, que nous sommes, se souviendrons que l'Etat qui nous réduit nos pensions nous permet tout de même dans sa grande générosité (c'est sarcastique) d'épargner en réduisant nos impôts (ce qui va profiter aux fourmis et à ceux qui ont une capacité d'épargne c'est-à-dire pas la majorité des gens).

    Du coup les potes de chez BlackRock sont super contents !

    Les 3/4 des fonds sous gestion chez BlackRock le sont pour... la retraite, mais en France, rien, ou presque ! Bref, un sacré marché à ouvrir, un marché sous vos yeux, en pleine ouverture !!!

    Et la France chez BlackRock ça les intéressent drôlement, et la retraite des Français encore plus... Le pédégé de BlackRock France, fort sympathique, ne s'en cache même pas ! Pour lui la réforme des retraites c'est vachement bien. Je le crois volontiers hahahahahahaha ! Cliquez sur l'image ci-dessous pour allez voir directement son interview sur le site de FranceTVinfo.
    Jean-François CirelliMais ce n'est pas nouveau. Regardez cet article des Echos du mois de septembre dernier

    RépondreSupprimer
  10. C'est un secret de polichinelle dans le monde journalistique. Tous les fonds américains veulent que le marché français s'ouvre à la capitalisation, car les Français sont de très gros épargnants, et des milliards d'euros placés sur des actions bien évidemment puisqu'avec les taux zéro, les obligations ne rapportent plus rien, ce sont des dizaines de milliards de commissions futures aussi bien en droits d'entrées, qu'en frais de gestion annuel par exemple.

    De quoi donc gaver quelques milliers de traders et assurer des revenus et des bonus plantureux à nos sociétés de gestion.

    Mais le mieux c'est ce reportage d'ARTE qui vous explique comment et pourquoi Macron reçoit plusieurs fois Lary FINK, le grand mamamouchi, à huit clos à l'Elysée.

    - voir clip sur site -

    C'est à partir de 1:22:35 et cela ne pourra être vu et revu que jusqu'au 15 décembre en Replay sur le site d'ARTE. Cela vaut son pesant de cacahuètes.

    Reprenons et résumons.

    Avec ce qu'il se passe, l'idée semble de vouloir « inciter » (mot pudique pour ne pas dire forcer puisque nous sommes en « démocrassie ») les Français à se lancer via la nouvelle enveloppe fiscale, appelée PER, dans la capitalisation pour combler la baisse future des pensions de retraites. Le gouvernement est donc en train de mettre en place un système permettant de défiscaliser les sommes qui iront enrichir les fonds comme BlackRock.

    Avec Delevoye, pour BlackRock ce sera zéro tracas, zéro blabla, puisque finalement, les bénéfices de ces fonds seront assurés par... la défiscalisation des sommes versées par les Français les plus aisés.

    C'est une très belle conception de la « justice » fiscale sociale, et... face aux retraites !

    Alors savoir si Delevoye est administrateur ou pas d'un institut de formation, ne change strictement rien à ce que je viens de vous expliquer, à savoir que la vente de notre système de retraite aux intérêts privés a été décidée et mise en oeuvre... au plus haut sommet de l'Etat.

    Il est déjà trop tard, mais tout n'est pas perdu. Préparez-vous !

    https://fr.sott.net/article/34654-Les-fonds-americains-veulent-que-le-marche-francaiss-ouvre-a-la-capitalisation

    RépondreSupprimer
  11. La France, un marché stratégique pour les gérants américains


    Bastien Bouchaud
    Les Echos
    mar., 24 sept. 2019 21:54 UTC


    Pays d'épargnants, la France est le premier marché d'Europe continentale pour la gestion d'actifs. Les institutionnels, qui représentent 73 % des encours en France, constituent une porte d'entrée privilégiée pour percer sur ce marché largement dominé par les acteurs locaux. Plusieurs gérants américains se penchent sur les opportunités offertes par la réforme de l'épargne retraite.

    Avec 4.142 milliards d'euros d'encours à la fin 2017, la France représente le premier marché d'Europe continentale pour la gestion d'actifs. Loin devant l'Allemagne (2.161 milliards) et la Suisse (1.887 milliards), selon une récente étude de l'Efama, le lobby européen des fonds d'investissements. Une manne qui ne passe pas inaperçue outre-Atlantique.

    630 sociétés de gestion d'actifs

    « Les Français sont de grands épargnants, même s'ils ne sont pas forcément investis de façon diversifiée pour le long terme », note Stéphane Lapiquonne, directeur général de BlackRock en France. « C'est un marché clef en Europe », ajoute Thomas Chaussier, le directeur France de Morgan Stanley IM en France, qui souligne son caractère « très concurrentiel, avec de nombreux acteurs locaux de toutes tailles ». Il faut dire qu'avec 630 sociétés de gestion, la France concentre bien plus d'acteurs que l'Allemagne (380) ou le Luxembourg (304), dont le champion européen Amundi avec plus de 1.400 milliards d'euros d'encours, mais aussi Natixis IM (plus de 800 milliards d'actifs), BNP Paribas AM (plus de 530 milliards) ou encore La Banque Postale AM (220 milliards).

    Les acteurs institutionnels privilégiés

    Face à ces établissements disposant de réseaux de distribution captifs, les gestionnaires américains ont eu tendance à privilégier les acteurs institutionnels, qui représentent 73 % du marché français, bien plus qu'en Allemagne (53 %) ou en Espagne (16 %). Une porte d'entrée naturelle pour les étrangers sur le marché français.

    - voir graphiques sur site -

    « La France est un marché sur invitation », lâche Stéphane Lapiquonne de BlackRock, qui gère environ 30 milliards d'euros pour le compte de clients français. « Les institutionnels et les réseaux de distribution vont faire appel à des expertises étrangères à la carte, selon leurs besoin », ajoute-t-il. C'est notamment la voie suivie par Pimco, Morgan Stanley IM et Wells Fargo AM (WFAM). « Nous sommes des partenaires naturels pour eux », estime Deirdre Flood, en charge de la distribution internationale de WFAM. « Nous ne sommes pas en concurrence directe avec les banques privées, les gérants de fortune ou encore les assureurs », ajoute-t-elle.

    WFAM a ouvert cette année une branche parisienne de sa filiale luxembourgeoise et compte élargir son équipe au cours des prochains mois. De quoi se développer au-delà de ses 23 clients institutionnels qui lui ont confié environ 3 milliards d'euros d'actifs. « Une de nos priorités en France est la gestion de fortune, où nous avons des relations de long terme de plus en plus approfondies », explique de son côté un porte-parole de Pimco.

    RépondreSupprimer
  12. Une dynamique qu'a également connue Goldman Sachs AM, arrivé il y a 14 ans en France. « La croissance a démarré avec la clientèle institutionnelle, mais nous observons ces dernières années une convergence des besoins entre institutionnels et clients retail », explique Yacine Boumahrat, responsable de la distribution de GSAM pour la France. Les actifs réels non cotés (capital-investissement, dette privée, infrastructures, immobilier), l'ESG et les fonds thématiques sont ainsi aujourd'hui plébiscités par les deux segments du marché.

    Goldman Sachs AM a quadruplé ses encours sous gestion en France depuis 2010

    La société de gestion de la banque de Wall Street, qui va également étoffer ses équipes dans les mois qui viennent, a ainsi pu quadrupler ses encours sous gestion en France depuis 2010, et surveille comme d'autres la réforme de l'épargne retraite introduite par la loi Pacte. « Nous nous intéressons de plus en plus au marché retail », explique ainsi Thomas Chaussier, qui souhaiterait profiter de la généralisation de la gestion pilotée dans l'épargne retraite. « La réforme des retraites, à commencer par la loi Pacte, devrait offrir de nouvelles opportunités pour les gestionnaires d'actifs pour servir le marché français », résume un porte-parole de Pimco. Quant à Vanguard, le gérant américain spécialisé dans les ETF, il compte sur « l'ouverture du marché français », grâce à la réglementation et à la digitalisation. « Cette dynamique est probablement plus lente que pour d'autres pays européens, mais le mouvement est bien enclenché », explique un porte-parole.

    https://fr.sott.net/article/34653-La-France-un-marche-strategique-pour-les-gerants-americains

    RépondreSupprimer
  13. Ce blogueur pourrait vraiment utiliser de l'aide

    Si vous pouvez m'aider, je peux me battre contre les freeloaders


    December 20th, 2019


    Le consensus sur le changement climatique
    Caricature de Climate Denier: la guerre contre la science continue et le compte bancaire a besoin de votre aide. C’est des munitions pour continuer à dénoncer la corruption, l’incompétence, l’hystérie et l’histoire.

    Nous luttons contre l'intérêt personnel de «l'investissement dans l'énergie verte» qui représente environ 400 milliards de dollars par an. Ensuite, il y a encore des Big Bankers qui veulent un marché mondial du carbone de 7T $ - peut-être qu'ils veulent sauver le monde, ou peut-être ont-ils besoin d'un nouveau yacht? Mais le Big-Government ne donnera pas de subventions aux écrivains qui veulent empêcher le Big-Government d'abuser de la science. Et non seulement les combustibles fossiles ne me financent pas, mais le plus grand producteur de gaz et de pétrole d'Australie ne me laisserait même pas parler lors d'un dîner de Noël pour les géologues. Tel est le sort toxique lancé. Woodside est tombé comme une bombe sur un comité dirigé par des bénévoles.

    Les égoïstes éclairent les crédules. Les parasites poussent et les récipients vides trouvent un salut spirituel.

    Cette année, le débat sur le climat a atteint un nouveau niveau de frénésie. La recrudescence a commencé à peu près au même moment que les États-Unis à mi-parcours en novembre 2018. Soudain, des chefs de vaudou ont récupéré leur mojo (perdu avec l'élection de Trump). Ayant épuisé le soutien des adultes pour leurs manifestations, la bulle des croyants 2.0 a regonflé avec un enfant comme messie. Ils ont encordé dans le dernier recours et le moins cher rent-a-foule - les adolescents scolarisés - beurré pour croire que sauter l'école en faisait des héros. Mais les électeurs adultes ont choisi le charbon plutôt que le climat en Australie et ont chassé l'UE du Royaume-Uni.

    Dans les coulisses, je connecte les sceptiques, réponds aux questions des sénateurs et des journalistes (apparaissant dans The Australian hier). Je ne peux le faire que grâce au soutien de personnes comme vous. Toutes les contributions ont été reçues avec gratitude. Chaque chose aide. Merci.

    De nouveaux messages apparaîtront sous celui-ci. Pas de vacances ici pendant un moment…

    Support via Paypal et non-paypal

    Compte NAB BSB: 086420 Numéro: 563148308.

    PS: Merci à WC, AJ, CK, AR, GC, BM, MB, TK, X, JL, KR, JM, aux personnes qui aident régulièrement via NAB et que je voudrais remercier. Tu sais qui tu es!

    http://joannenova.com.au/2019/12/what-id-really-like-for-christmas/

    RépondreSupprimer
  14. Ne pas s'inquiéter . . . habituellement


    Par Eric Peters
    Eric Peters Autos
    20 décembre 2019

    Lorsque votre voiture commence à faire un nouveau bruit étrange - ou émet une nouvelle odeur étrange - ce n'est pas nécessairement quelque chose de majeur. La première chose à faire est de se calmer - et de ne pas assumer le pire. La deuxième chose à faire - si vous n'êtes pas mécaniquement enclin - est de trouver quelqu'un en qui vous avez confiance pour écouter.

    Et un coup d'oeil.

    Un bruit commun - et alarmant - que les voitures modernes font souvent et qui n'est généralement pas quelque chose à craindre est un cliquetis d'échappement. Ce n'est probablement pas un râle de mort. Il y a fort à parier que le bouclier thermique du convertisseur catalytique - un mince morceau de métal soudé par points au corps du convertisseur, pour empêcher sa surface très chaude de toucher - et peut-être de s'enflammer - les feuilles sèches et celles sous la voiture - est devenu partiellement lâche.

    Quand il le fait, il fait une raquette désagréable - et si vous ne connaissez pas la propension du bouclier thermique à se desserrer au fil du temps - vous pourriez penser qu'il y a quelque chose qui ne va pas.

    La solution est aussi facile - et bon marché - que d'avoir quelqu'un qui peut souder par soudage le bouclier en place ou (sur le terrain) simplement soulever la chose. Cela n'affectera en rien le fonctionnement de la voiture - ni ses émissions -.

    N'oubliez pas de ne pas vous garer sur l'herbe sèche (et haute) - jusqu'à ce que vous puissiez réparer le bouclier.

    La fumée montante est un autre élévateur de tension artérielle. Mais ce pourrait être quelque chose qui est plus une aggravation qu’une cause d’alarme. Sauf si vous conduisez une voiture électrique. Dans ce cas, laissez la voiture à la première vue - ou la moindre bouffée - de fumée. Les batteries au lithium-ion pour voitures électriques peuvent - et parfois, le font - brûler spontanément. Et quand ils le font, ils brûlent rapidement - et très chaud. Arrêtez la voiture, sortez et éloignez-vous de la voiture.

    Immédiatement.

    S'il ne s'agit pas d'une voiture électrique, la fumée est probablement le résultat d'une fuite d'huile - ou d'une fuite d'eau. Le suintement - comme à partir d'un couvercle de soupape qui fuit, puis sur des pièces de moteur en métal chaud - ce qui produit de la fumée - n'est généralement pas grave. Ouvrez le capot pour voir si vous pouvez renvoyer la fumée dans le suintement. Si vous voyez un peu d'infiltration autour du bord d'un couvercle de soupape ou d'un collecteur d'admission, vous pouvez probablement continuer à conduire. Mais assurez-vous de vérifier d'abord le niveau d'huile (l'huile qui coule fuit) pour vous assurer que votre moteur ne manque pas d'huile - et vérifiez-le régulièrement, jusqu'à ce que vous puissiez réparer le suintement.

    S'il s'agit d'une goutte régulière - regardez sous la voiture avec le moteur en marche - vous voudrez arrêter de conduire la voiture, car cela indique une fuite importante et peut-être même sous pression qui pourrait rapidement entraîner une panne d'huile du moteur. . . puis ne fonctionne pas du tout.

    Ou la transmission - si c'est une automatique. Faire fonctionner une automatique à faible niveau de liquide peut la détruire en quelques minutes ou même moins, s'il s'agit d'une grosse fuite.

    Ne le risque pas. Garez-le.

    https://www.lewrockwell.com/2019/12/eric-peters/not-to-worry-usually/

    RépondreSupprimer
  15. Fluoration de l'eau: un bon moyen de réduire le QI


    Dec 16 2019


    Le fluorure a été ajouté à nos approvisionnements publics en eau depuis les années 1950. Il a été ajouté parce que le Powers-That-Be nous a assuré qu'il abaisserait les taux de caries et ne causerait aucun dommage. Après 70 ans à ajouter du fluorure à nos approvisionnements en eau, je peux maintenant affirmer avec certitude que l'eau fluorée ne réduit pas considérablement les taux de caries et qu'elle est associée à de graves problèmes de santé.

    Lorsque vous comparez des pays fluorés avec des pays non fluorés, il n'y a pratiquement aucune différence dans les taux de caries. À l'heure actuelle, les États-Unis sont probablement le pays le plus fluoré au monde. La plupart des pays occidentaux ont examiné la science derrière la fluoration et ont cessé de l'utiliser. Presque tous les autres pays occidentaux ont examiné la science derrière la fluoration de l'eau et ont conclu à juste titre que les méfaits de la fluoration de l'eau l'emportent largement sur les avantages minimaux supposés d'une moindre carie dentaire. Israël a été le dernier pays occidental à interdire son utilisation dans l'eau du robinet. En 2014, le ministre de la Santé d'Israël a déclaré: «… la fluoration est une atteinte aux droits personnels…» (1)

    Une étude de 2020 (récemment publiée) dans Environmental International (2) a examiné les nourrissons qui ont ingéré de l'eau du robinet fluorée et mesuré leur quotient intellectuel (QI). Les scientifiques ont découvert qu'une augmentation de 0,5 mg / L de la fluoration de l'eau (correspondant à la différence entre les régions fluorées et non fluorées) correspondait à une diminution de 9,3 et 6,2 du Performance IQ chez les enfants nourris au lait maternisé et allaités. Les auteurs ont conclu l'étude en déclarant: «L'exposition à des niveaux croissants de fluorure dans l'eau du robinet était associée à une diminution des capacités intellectuelles non verbales; l'effet était plus prononcé chez les enfants nourris au lait maternisé. »(Environmental International. 134 (2020): 105315). Les enfants nourris au biberon recevront plus de fluor que les enfants nourris au sein.

    Le fluorure, une neurotoxine connue, n'aurait jamais dû être ajouté à notre approvisionnement en eau, car la science derrière la fluoration de l'eau était suspecte.

    Que pouvez-vous faire ? Ne laissez pas les nourrissons et les enfants ingérer de l'eau fluorée. Malheureusement, il n'est pas facile d'extraire le fluorure de l'eau fluorée. Des filtres spéciaux, tels que des filtres à osmose inverse, peuvent accomplir cette tâche. Il est préférable de travailler avec un expert en eau.

    Faites savoir à votre ville, à votre état et aux représentants fédéraux élus ce que vous pensez de ce problème. Si nous éduquons nos élus, nous pouvons commencer à exiger que le fluorure soit retiré de nos approvisionnements publics en eau.

    S'assurer que vous avez suffisamment d'iode peut aider à prévenir les problèmes de fluorure. L'iode est un inhibiteur compétitif du fluorure. L'iode est un élément essentiel pour le corps humain; nous ne pouvons pas vivre sans. Le fluorure est une neurotoxine et un cancérogène connus. Vous trouverez plus d'informations sur le fluorure dans mon livre, Iode: pourquoi vous en avez besoin, pourquoi vous ne pouvez pas vivre sans.
    ~ Dr B

    https://www.drbrownstein.com/water-fluoridation:-a-good-way-to-lower-iq/

    RépondreSupprimer
  16. Les hommes pensent qu'ils sont de meilleurs menteurs
    par l'Université de Portsmouth


    20 DÉCEMBRE 2019


    Les nouvelles recherches ont révélé que les hommes sont deux fois plus susceptibles que les femmes de se considérer comme bons à mentir et à s'en tirer.

    Les personnes qui excellent dans le mensonge sont de bons orateurs et disent plus de mensonges que les autres, généralement à la famille, aux amis, aux partenaires romantiques et aux collègues, selon les recherches menées par le Dr Brianna Verigin, à l'Université de Portsmouth.

    Les menteurs experts préfèrent également mentir face à face plutôt que par SMS, et les médias sociaux étaient l'endroit le moins susceptible de mentir.

    Le Dr Verigin, qui partage son temps entre les universités de Portsmouth et de Maastricht, aux Pays-Bas, a déclaré: "Nous avons trouvé un lien significatif entre l'expertise du mensonge et le sexe. Les hommes étaient plus de deux fois plus susceptibles de se considérer comme des menteurs experts qui se sont enfuis avec ça.

    "Des recherches antérieures ont montré que la plupart des gens disent un à deux mensonges par jour, mais ce n'est pas exact, la plupart des gens ne mentent pas tous les jours mais un petit nombre de menteurs prolifiques sont responsables de la majorité des mensonges rapportés.

    "Ce qui ressort de notre étude, c'est que près de la moitié (40%) de tous les mensonges sont racontés par un très petit nombre de trompeurs. Et ces gens mentiront en toute impunité à ceux qui sont les plus proches d'eux.

    "Les menteurs prolifiques comptent beaucoup sur leur habileté à parler, à tisser leurs mensonges en vérités, il devient donc difficile pour les autres de distinguer la différence, et ils sont aussi meilleurs que la plupart à cacher les mensonges dans des histoires apparemment simples et claires qui sont plus difficile pour les autres de douter. "

    Le Dr Verigin a interrogé 194 personnes, moitié hommes et moitié femmes, avec une moyenne d'âge de 39 ans.

    On leur a posé une série de questions, notamment à quel point ils étaient capables de tromper les autres, combien de mensonges ils avaient dit au cours des dernières 24 heures, le type de mensonges qu'ils avaient dit, à qui et s'ils l'avaient fait face- face à face ou par d'autres moyens.

    Elle a déclaré: "maintes et maintes fois, des études ont montré que nous ne sommes pas aussi doués pour détecter les mensonges que nous le pensons. Au mieux, la plupart d'entre nous ont une chance de 50:50 de bien faire les choses lorsque quelqu'un tire la laine sur nos yeux. .

    "Nous voulions nous concentrer sur ceux qui savent bien mentir et essayer de comprendre comment ils le font et à qui."

    L'étude a révélé que l'une des principales stratégies des menteurs consiste à dire des mensonges plausibles qui restent proches de la vérité et à ne pas donner beaucoup d'informations. Et mieux quelqu'un pense penser mentir, plus il dit de mensonges.

    La stratégie la plus couramment utilisée par tous ceux qui ont admis avoir menti, qu'ils soient experts ou pauvres menteurs, était de laisser de côté certaines informations. Mais des menteurs experts ont ajouté à cela une capacité à tisser une histoire crédible embellie de vérité, ce qui rend les mensonges plus difficiles à repérer.

    RépondreSupprimer
  17. En revanche, ceux qui pensaient qu'ils n'étaient pas bons à mentir recouraient, lorsqu'ils mentaient, à être vagues.

    Dans l'ensemble, sur les 194 personnes, les types de tromperie les plus courants, par ordre décroissant, étaient des "mensonges blancs'', des exagérations, la dissimulation d'informations, l'enfouissement de mensonges dans un torrent de vérité et la fabrication de choses.

    La plupart des gens ont choisi de mentir face à face, puis par SMS, par téléphone, par e-mail et enfin via les réseaux sociaux.

    La plupart des menteurs experts mentent le plus souvent à leur famille, leurs amis ou leurs collègues. Les employeurs et les figures d'autorité étaient les moins susceptibles d'être menti.

    L'étude n'a montré aucun lien entre le niveau d'éducation et la capacité de mentir. Le Dr Verigin a déclaré que davantage de recherches devaient être effectuées, en particulier sur une meilleure compréhension de l'expertise des bons menteurs pour intégrer des mensonges dans des informations véridiques et pour utiliser des faits impossibles à vérifier.

    https://medicalxpress.com/news/2019-12-men-theyre-liars.html

    RépondreSupprimer
  18. Un nouveau système de sécurité pour révolutionner la confidentialité des communications


    20 DÉCEMBRE 2019
    par l'Université King Abdullah des sciences et technologies


    Un nouveau système de sécurité infranchissable créé par des chercheurs de la King Abdullah University of Science and Technology (KAUST), de l'Université de St Andrews et du Center for Unconventional Processes of Sciences (CUP Sciences) devrait révolutionner la confidentialité des communications.

    L'équipe internationale de scientifiques a créé des puces optiques qui permettent d'envoyer des informations d'un utilisateur à un autre en utilisant une communication unique non piratable qui atteint un "secret parfait" permettant aux données confidentielles d'être protégées de manière plus sûre que jamais sur les canaux de communication classiques publics .

    Leur système proposé utilise des puces de silicium qui contiennent des structures complexes qui sont modifiées de manière irréversible, pour envoyer des informations dans une clé unique qui ne peut jamais être recréée ni interceptée par un attaquant.

    Les résultats publiés dans la revue scientifique Nature Communications ouvrent une nouvelle voie vers la mise en œuvre d'une cryptographie parfaitement secrète à l'échelle mondiale avec des coûts maîtrisés.

    "Cette nouvelle technique est absolument incassable, comme nous l'avons rigoureusement démontré dans notre article. Elle peut être utilisée pour protéger la confidentialité des communications échangées par des utilisateurs séparés par n'importe quelle distance, à une vitesse ultrarapide proche de la limite de lumière et en optique compatible peu coûteuse et électronique puces", explique le professeur Andrea di Falco de l'École de physique et d'astronomie de l'Université de St. Andrews et premier auteur de l'étude.

    Les techniques cryptographiques standard actuelles permettent d'envoyer rapidement des informations mais peuvent être brisées par les futurs ordinateurs et algorithmes quantiques. L'équipe de recherche affirme que sa nouvelle méthode de cryptage des données est incassable et utilise les réseaux de communication existants, occupant moins d'espace sur les réseaux que les communications cryptées traditionnelles.

    Un nouveau système de sécurité pour révolutionner la confidentialité des communications

    "Avec l'avènement d'ordinateurs plus puissants et plus quantiques, toutes les cryptages actuels seront rompus en très peu de temps, exposant la confidentialité de nos communications présentes et, plus importantes, passées. Par exemple, un attaquant peut stocker un message crypté envoyé aujourd'hui et attendre que la bonne technologie soit disponible pour déchiffrer la communication », explique le Dr Andrea Fratalocchi, professeur agrégé de génie électrique au KAUST et co-auteur de l'étude.

    "La mise en œuvre de ressources massives et abordables de sécurité mondiale est un problème mondial que cette recherche a le potentiel de résoudre pour tout le monde et partout dans le monde. Si ce programme pouvait être mis en œuvre à l'échelle mondiale, les crypto-hackers devront chercher un autre emploi", a déclaré le Dr Fratalocchi. continue.

    RépondreSupprimer
  19. La nouvelle méthode utilise la loi classique de la physique pour protéger les messages et en particulier la deuxième loi de la thermodynamique. La technique atteint un secret parfait, ce qui signifie qu'un pirate ne pourra jamais accéder aux informations contenues dans la communication.

    Les clés générées par la puce, qui déverrouillent chaque message, ne sont jamais stockées et ne sont pas communiquées avec le message, ni ne peuvent jamais être recréées, même par les utilisateurs eux-mêmes, ce qui ajoute une sécurité supplémentaire.

    "Ce système est la solution pratique que le secteur de la cybersécurité attendait depuis la preuve théorique du secret parfait en 1917 par Gilbert Vernam. Ce sera un candidat clé pour résoudre les menaces mondiales de cybersécurité, de la sécurité privée à la sécurité nationale, jusqu'au smart réseaux énergétiques." dit le Dr Aluizio M Cruz, co-fondateur et PDG du Center for Unconventional Processes of Sciences (CUP Sciences) en Californie, et co-auteur de l'étude.

    L'équipe travaille actuellement au développement d'applications commerciales de cette technologie brevetée, a une démo entièrement fonctionnelle et construit un logiciel convivial pour ce système.

    https://techxplore.com/news/2019-12-revolutionize-privacy.html

    RépondreSupprimer
  20. Les chercheurs produisent les premières images ultrasonores laser des humains


    20 DÉCEMBRE 2019
    par Jennifer Chu,
    Massachusetts Institute of Technology


    Pour la plupart des gens, obtenir une échographie est une procédure relativement facile: comme un technicien appuie doucement une sonde contre la peau d'un patient, les ondes sonores générées par la sonde traversent la peau, rebondissant sur les muscles, la graisse et d'autres tissus mous avant de se refléter. la sonde, qui détecte et traduit les ondes en une image de ce qui se trouve en dessous.

    L'échographie conventionnelle n'expose pas les patients à un rayonnement nocif comme le font les scanners à rayons X et CT, et elle est généralement non invasive. Mais cela nécessite un contact avec le corps d'un patient, et en tant que tel, peut être limitatif dans les situations où les cliniciens peuvent vouloir imager des patients qui ne tolèrent pas bien la sonde, tels que des bébés, des brûlés ou d'autres patients à la peau sensible. En outre, le contact avec la sonde à ultrasons induit une variabilité d'image importante, ce qui constitue un défi majeur en échographie moderne.

    Maintenant, les ingénieurs du MIT ont trouvé une alternative à l'échographie conventionnelle qui ne nécessite pas de contact avec le corps pour voir à l'intérieur d'un patient. La nouvelle technique d'échographie laser exploite un système laser sans danger pour les yeux et la peau pour l'image à distance de l'intérieur d'une personne. Lorsqu'il est entraîné sur la peau d'un patient, un laser génère à distance des ondes sonores qui rebondissent à travers le corps. Un deuxième laser détecte à distance les ondes réfléchies, que les chercheurs traduisent ensuite en une image similaire aux ultrasons conventionnels.

    Dans un article publié aujourd'hui par Nature dans la revue Light: Science and Applications, l'équipe rapporte avoir généré les premières images ultrasonores laser chez l'homme. Les chercheurs ont scanné les avant-bras de plusieurs volontaires et observé des caractéristiques tissulaires communes telles que les muscles, la graisse et les os, jusqu'à environ 6 centimètres sous la peau. Ces images, comparables aux ultrasons conventionnels, ont été produites à l'aide de lasers à distance focalisés sur un volontaire à un demi-mètre de distance.

    «Nous sommes au début de ce que nous pourrions faire avec l'échographie laser», explique Brian W. Anthony, chercheur principal au Département de génie mécanique du MIT et à l'Institut de génie médical et des sciences (IMES), auteur principal du document. . "Imaginez que nous arrivions à un point où nous pouvons faire tout ce que l'échographie peut faire maintenant, mais à distance. Cela vous donne une toute nouvelle façon de voir les organes à l'intérieur du corps et de déterminer les propriétés des tissus profonds, sans entrer en contact avec le patient."

    Les co-auteurs d'Anthony sur le papier sont l'auteur principal et postdoctorant du MIT Xiang (Shawn) Zhang, le récent diplômé du doctorat Jonathan Fincke, ainsi que Charles Wynn, Matthew Johnson et Robert Haupt du Lincoln Laboratory du MIT.

    Ces dernières années, les chercheurs ont exploré des méthodes basées sur le laser dans l'excitation par ultrasons dans un domaine connu sous le nom de photoacoustique. Au lieu d'envoyer directement des ondes sonores dans le corps, l'idée est d'envoyer de la lumière, sous la forme d'un laser pulsé accordé à une longueur d'onde particulière, qui pénètre dans la peau et est absorbée par les vaisseaux sanguins.

    RépondreSupprimer
  21. Les vaisseaux sanguins se dilatent et se détendent rapidement - chauffés instantanément par une impulsion laser puis rapidement refroidis par le corps à leur taille d'origine - pour être à nouveau frappés par une autre impulsion lumineuse. Les vibrations mécaniques qui en résultent génèrent des ondes sonores qui remontent, où elles peuvent être détectées par des transducteurs placés sur la peau et traduites en une image photoacoustique.

    Alors que la photoacoustique utilise des lasers pour sonder à distance les structures internes, la technique nécessite toujours un détecteur en contact direct avec le corps afin de capter les ondes sonores. De plus, la lumière ne peut parcourir qu'une courte distance dans la peau avant de s'estomper. En conséquence, d'autres chercheurs ont utilisé la photoacoustique pour imager les vaisseaux sanguins juste sous la peau, mais pas beaucoup plus profondément.

    Étant donné que les ondes sonores voyagent plus loin dans le corps que la lumière, Zhang, Anthony et leurs collègues ont cherché un moyen de convertir la lumière d'un faisceau laser en ondes sonores à la surface de la peau, afin de créer une image plus profonde dans le corps.

    Sur la base de leurs recherches, l'équipe a sélectionné des lasers de 1 550 nanomètres, une longueur d'onde très absorbée par l'eau (et sans danger pour les yeux et la peau avec une grande marge de sécurité). La peau étant essentiellement composée d'eau, l'équipe a estimé qu'elle devrait absorber efficacement cette lumière, se réchauffer et se dilater en réponse. Lorsqu'elle revient à son état normal, la peau elle-même devrait produire des ondes sonores qui se propagent à travers le corps.

    Les chercheurs ont testé cette idée avec une configuration laser, en utilisant un laser pulsé réglé à 1550 nanomètres pour générer des ondes sonores et un deuxième laser continu, réglé sur la même longueur d'onde, pour détecter à distance les ondes sonores réfléchies. Ce deuxième laser est un détecteur de mouvement sensible qui mesure les vibrations à la surface de la peau causées par les ondes sonores rebondissant sur les muscles, les graisses et d'autres tissus. Le mouvement de surface de la peau, généré par les ondes sonores réfléchies, provoque un changement de la fréquence du laser, qui peut être mesuré. En balayant mécaniquement les lasers sur le corps, les scientifiques peuvent acquérir des données à différents endroits et générer une image de la région.

    "C'est comme si nous hurlions constamment dans le Grand Canyon en marchant le long du mur et en écoutant à différents endroits", explique Anthony. "Cela vous donne alors suffisamment de données pour comprendre la géométrie de toutes les choses à l'intérieur desquelles les vagues ont rebondi - et les cris se font avec une lampe de poche."

    Imagerie à domicile

    Les chercheurs ont d'abord utilisé la nouvelle configuration pour imager des objets métalliques intégrés dans un moule en gélatine ressemblant à peu près au contenu en eau de la peau. Ils ont imagé la même gélatine à l'aide d'une sonde à ultrasons du commerce et ont constaté que les deux images étaient d'une similitude encourageante. Ils sont passés à l'image du tissu animal excisé - dans ce cas, la peau de porc - où ils ont découvert que l'échographie laser pouvait distinguer des caractéristiques plus subtiles, telles que la frontière entre les muscles, la graisse et les os.

    RépondreSupprimer
  22. Enfin, l'équipe a réalisé les premières expériences d'échographie au laser chez l'homme, en utilisant un protocole qui a été approuvé par le Comité du MIT sur l'utilisation des humains comme sujets expérimentaux. Après avoir numérisé les avant-bras de plusieurs volontaires sains, les chercheurs ont produit les premières images échographiques laser sans contact d'un humain. Les limites de la graisse, des muscles et des tissus sont clairement visibles et comparables aux images générées à l'aide de sondes à ultrasons commerciales à contact.

    Les chercheurs prévoient d'améliorer leur technique et recherchent des moyens d'améliorer les performances du système pour résoudre les traits fins des tissus. Ils cherchent également à perfectionner les capacités du laser de détection. Plus loin, ils espèrent miniaturiser la configuration du laser, afin que l'échographie laser puisse un jour être déployée en tant qu'appareil portable.

    "Je peux imaginer un scénario où vous pouvez faire cela à la maison", explique Anthony. "Quand je me lève le matin, je peux obtenir une image de ma thyroïde ou de mes artères, et je peux avoir une imagerie physiologique à domicile à l'intérieur de mon corps. Vous pouvez imaginer le déployer dans l'environnement ambiant pour comprendre votre état interne . "

    https://phys.org/news/2019-12-laser-ultrasound-images-humans.html

    RépondreSupprimer
  23. Les scientifiques étudient la capacité impressionnante des raies manta à guérir


    20 DÉCEMBRE 2019
    par l'Université du Queensland


    "Whoopi 'la raie manta - un visiteur régulier du récif de Ningaloo en Australie occidentale - a aidé les scientifiques de l'Université du Queensland et de l'Université Murdoch à étudier la capacité impressionnante des rayons à guérir.

    Whoopi, qui a nagé avec des milliers de touristes WA au fil des ans, a été touchée par un bateau en 2015, souffrant d'hélices pouvant atteindre 20 centimètres jusqu'au bord de son aile.

    La Dre Christine Dudgeon de l'École des sciences biomédicales de l'UQ a déclaré qu'une telle attaque était relativement rare, mais pouvait causer des blessures importantes à l'animal.

    "Les raies manta ne font pas surface pour respirer, ce qui, selon vous, réduirait leur susceptibilité aux impacts de bateaux", a déclaré le Dr Dudgeon.

    "Mais ces raies, comme les requins baleines, les requins tigres et autres requins et raies, passent beaucoup de temps dans les eaux de surface pour des activités comme se prélasser et se nourrir.

    "La plupart des blessures de ces espèces ont été attribuées à la prédation, aux tentatives d'accouplement et aux blessures ou enchevêtrements liés à la pêche, mais les bateaux finissent par heurter certains rayons - et Whoopi a eu les coupures pour le prouver."

    Les raies manta et autres requins et raies sont considérés comme ayant une capacité de guérison élevée.

    "Cela est probablement dû, en partie au moins, à un système immunitaire adaptatif unique", a déclaré le Dr Dudgeon.

    "Cependant, peu d'études ont examiné le taux de cicatrisation des plaies chez les requins et les raies, et celles-ci se sont principalement concentrées sur les impacts des procédures de marquage externes et internes, et non sur les collisions avec les bateaux."

    Pour approfondir ce phénomène, l'équipe a comparé des photographies sous-marines prises dans la zone du patrimoine mondial de la côte Ningaloo de WA au cours des 15 dernières années, et a trouvé des preuves d'une plus grande incidence de collision de bateaux sur les raies manta qu'on ne le pensait auparavant.

    Le professeur Anthony Richardson du Centre des applications en mathématiques des ressources naturelles de l'UQ a déclaré que les résultats étaient impressionnants.

    "Whoopi nous a montré à quelle vitesse ces belles créatures peuvent guérir", a-t-il déclaré.

    "Ses blessures importantes avaient guéri de 50% seulement 46 jours après l'attaque du bateau, et au 295ème jour, elles avaient guéri de 95%."

    Le Dr Dudgeon a déclaré que la recherche pourrait être utilisée pour éclairer la politique de conception d'une gestion spatiale adéquate pour la région.

    RépondreSupprimer
  24. "Il est impératif de réduire l'impact des navires sur les raies manta et de protéger leur habitat essentiel", a-t-elle déclaré.

    "Une telle gestion peut inclure des restrictions de vitesse pendant les périodes d'utilisation élevée, des zones exemptes de navires, l'utilisation de protecteurs d'hélices ou de moteurs alternatifs - comme les moteurs à réaction - et l'éducation du public sur les conflits navire-faune."

    "Les raies manta sont des guérisseurs incroyables, mais il est important de les protéger en premier lieu."

    La recherche a été publiée dans PLOS One.

    https://phys.org/news/2019-12-scientists-manta-rays-ability.html

    RépondreSupprimer
    Réponses

    1. Tout en sachant que la raie Manta nage en des eaux sales toute sa vie (les poissons chient dedans, les gaz les plus toxiques et produits chimiques sortent du magma, etc), elle se nourrit comme les animaux terrestres 100 % de pollution ! (tout ce qui vient de la Terre est appelé 'pollution' !)

      Supprimer
  25. L'IA "grandir et tailler'' imite le développement du cerveau et réduit la consommation d'énergie


    20 DÉCEMBRE 2019
    par Scott Lyon,
    Princeton University


    Cela peut être un choc pour les parents confrontés au chaos quotidien de la vie des tout-petits, mais la complexité du cerveau culmine vers l'âge de trois ans.

    Le nombre de connexions entre les neurones explose pratiquement au cours de nos premières années. Après cela, le cerveau commence à élaguer les parties inutilisées de ce vaste réseau électrique, amincissant à environ la moitié du nombre au moment où nous atteignons l'âge adulte. Le surapprovisionnement du cerveau des tout-petits nous permet d'acquérir le langage et de développer la motricité fine. Mais ce que nous n'utilisons pas, nous le perdons.

    Maintenant, ce flux et reflux de complexité biologique a inspiré une équipe de chercheurs de Princeton à créer un nouveau modèle pour l'intelligence artificielle, créant des programmes qui respectent ou dépassent les normes de précision de l'industrie en utilisant seulement une fraction de l'énergie. Dans une paire d'articles publiés plus tôt cette année, les chercheurs ont montré comment commencer avec une conception simple pour un réseau d'IA, développer le réseau en ajoutant des neurones artificiels et des connexions, puis tailler les portions inutilisées en laissant un produit final maigre mais très efficace.

    "Notre approche est ce que nous appelons un paradigme de croissance et d'élagage", a déclaré le professeur de génie électrique Niraj Jha. "C'est similaire à ce que fait un cerveau depuis que nous sommes un bébé jusqu'à quand nous sommes un tout-petit." Dans sa troisième année, le cerveau humain commence à couper les connexions entre les cellules du cerveau. Ce processus se poursuit à l'âge adulte, de sorte que le cerveau pleinement développé fonctionne à environ la moitié de son pic synaptique.

    "Le cerveau adulte est spécialisé dans la formation que nous lui avons dispensée", a déclaré Jha. "Ce n'est pas aussi bon pour l'apprentissage général qu'un cerveau de tout-petit."

    La croissance et l'élagage aboutissent à un logiciel qui nécessite une fraction de la puissance de calcul, et utilise donc beaucoup moins d'énergie, pour faire des prédictions tout aussi bonnes sur le monde. Limiter la consommation d'énergie est essentiel pour intégrer ce type d'IA avancée, appelée apprentissage automatique, sur de petits appareils tels que les téléphones et les montres.

    "Il est très important d'exécuter localement les modèles d'apprentissage automatique car la transmission [vers le cloud] nécessite beaucoup d'énergie", a déclaré Xiaoliang Dai, un ancien étudiant diplômé de Princeton et premier auteur des deux articles. Dai est maintenant chercheur scientifique sur Facebook.

    Dans la première étude, les chercheurs ont réexaminé les fondements de l'apprentissage automatique - les structures de code abstraites appelées réseaux de neurones artificiels. S'inspirant du développement de la petite enfance, l'équipe a conçu un outil de synthèse des réseaux de neurones (NeST) qui a recréé plusieurs réseaux neuronaux à partir de zéro, automatiquement, en utilisant des modèles mathématiques sophistiqués développés pour la première fois dans les années 1980.

    RépondreSupprimer
  26. NeST commence avec seulement un petit nombre de neurones artificiels et de connexions, augmente la complexité en ajoutant plus de neurones et de connexions au réseau, et une fois qu'il atteint un repère de performance donné, commence à se rétrécir avec le temps et la formation. Les chercheurs précédents avaient utilisé des stratégies d'élagage similaires, mais la combinaison de croissance et d'élagage - passant du «cerveau de bébé» au «cerveau de tout-petit» et amincissant vers le «cerveau d'adulte» - représentait un saut de l'ancienne théorie à la démonstration de roman.

    Le deuxième article, qui comprend des collaborateurs de Facebook et de l'Université de Californie à Berkeley, a présenté un cadre appelé Chameleon qui commence avec les résultats souhaités et travaille en arrière pour trouver le bon outil pour le travail. Avec des centaines de milliers de variantes disponibles dans les différentes facettes d'une conception, les ingénieurs sont confrontés à un paradoxe de choix qui va bien au-delà des capacités humaines. Par exemple: L'architecture pour recommander des films ne ressemble pas à celle qui reconnaît les tumeurs. Le système réglé pour le cancer du poumon est différent de celui du cancer du col utérin. Les assistants en démence peuvent avoir un aspect différent pour les femmes et les hommes. Et ainsi de suite, à l'infini.

    Jha a décrit Cameleon comme orientant les ingénieurs vers un sous-ensemble favorable de conceptions. "Cela me donne un bon voisinage, et je peux le faire en quelques minutes CPU", a déclaré Jha, se référant à une mesure du temps de traitement informatique. "Je peux donc obtenir très rapidement la meilleure architecture." Plutôt que l'ensemble de la métropole tentaculaire, il suffit de fouiller quelques rues.

    Cameleon fonctionne en entraînant et en échantillonnant un nombre relativement petit d'architectures représentant une grande variété d'options, puis prédit les performances de ces conceptions avec un ensemble donné de conditions. Parce qu'elle réduit les coûts initiaux et fonctionne au sein de plates-formes allégées, l'approche hautement adaptative "pourrait étendre l'accès aux réseaux de neurones aux organismes de recherche qui n'ont pas actuellement les ressources pour tirer parti de cette technologie", selon un article de blog de Facebook.

    https://techxplore.com/news/2019-12-prune-ai-mimics-brain-slashes.html

    RépondreSupprimer
  27. Une nouvelle façon d'éliminer les contaminants des eaux usées nucléaires


    20 DÉCEMBRE 2019
    par David L. Chandler,
    Massachusetts Institute of Technology


    L'énergie nucléaire continue de se développer à l'échelle mondiale, propulsée en partie par le fait qu'elle produit peu d'émissions de gaz à effet de serre tout en fournissant une production d'énergie constante. Mais cette expansion s'accompagne d'un besoin accru de gérer les grands volumes d'eau utilisés pour le refroidissement de ces usines, qui deviennent contaminés par des isotopes radioactifs qui nécessitent une élimination spéciale à long terme.

    Désormais, une méthode mise au point au MIT permet de réduire considérablement le volume d'eau contaminée à éliminer, en concentrant plutôt les contaminants et en permettant au reste de l'eau d'être recyclée via le système de refroidissement de l'usine. Le système proposé est décrit dans la revue Environmental Science and Technology, dans un article de Mohammad Alkhadra, étudiant diplômé, du professeur de génie chimique Martin Bazant et de trois autres.

    La méthode utilise un processus appelé électrodialyse de choc, qui utilise un champ électrique pour générer une onde de choc de déionisation dans l'eau. L'onde de choc pousse les particules ou les ions chargés électriquement d'un côté d'un tube rempli de matériau poreux chargé, de sorte que le flux concentré de contaminants peut être séparé du reste de l'eau. Le groupe a découvert que deux contaminants radionucléides - isotopes du cobalt et du césium - peuvent être éliminés de manière sélective de l'eau qui contient également de l'acide borique et du lithium. Une fois le courant d'eau nettoyé de ses contaminants de cobalt et de césium, il peut être réutilisé dans le réacteur.

    Le processus d'électrodialyse par choc a été initialement développé par Bazant et ses collègues comme méthode générale d'élimination du sel de l'eau, comme le démontre leur premier prototype évolutif il y a quatre ans. Maintenant, l'équipe s'est concentrée sur cette application plus spécifique, ce qui pourrait aider à améliorer l'impact économique et environnemental des centrales nucléaires en activité. Dans le cadre de recherches en cours, ils poursuivent également le développement d'un système d'élimination d'autres contaminants, dont le plomb, de l'eau potable.

    Le nouveau système est non seulement peu coûteux et évolutif à de grandes tailles, mais en principe, il peut également traiter une large gamme de contaminants, explique Bazant. "Il s'agit d'un seul appareil qui peut effectuer toute une gamme de séparations pour toute application spécifique", dit-il.

    Dans leurs précédents travaux de dessalement, les chercheurs ont utilisé des mesures de la conductivité électrique de l'eau pour déterminer la quantité de sel qui avait été éliminée. Depuis, l'équipe a développé d'autres méthodes pour détecter et quantifier les détails de ce qui se trouve dans les déchets radioactifs concentrés et l'eau épurée.

    "Nous mesurons soigneusement la composition de toutes les choses qui entrent et sortent", explique Bazant, qui est l'E.G. Professeur Roos de génie chimique et professeur de mathématiques. "Cela a vraiment ouvert une nouvelle direction pour nos recherches." Ils ont commencé à se concentrer sur les processus de séparation qui seraient utiles pour des raisons de santé ou qui entraîneraient la concentration de matières de grande valeur, soit pour la réutilisation, soit pour compenser les coûts d'élimination.

    RépondreSupprimer
  28. La méthode qu'ils ont développée fonctionne pour le dessalement de l'eau de mer, mais c'est un processus relativement énergivore pour cette application. Le coût énergétique est considérablement inférieur lorsque la méthode est utilisée pour les séparations sélectives des ions des flux dilués tels que l'eau de refroidissement des centrales nucléaires. Pour cette application, qui nécessite également une élimination coûteuse, la méthode a un sens économique, dit-il. Il atteint également les deux objectifs de l'équipe: traiter des matériaux de grande valeur et aider à protéger la santé. L'ampleur de l'application est également importante - une seule grande centrale nucléaire peut faire circuler environ 10 millions de mètres cubes d'eau par an à travers son système de refroidissement, dit Alkhadra.

    Pour leurs tests du système, les chercheurs ont utilisé des eaux usées nucléaires simulées sur la base d'une recette fournie par Mitsubishi Heavy Industries, qui a parrainé la recherche et est un important constructeur de centrales nucléaires. Dans les tests de l'équipe, après un processus de séparation en trois étapes, ils ont réussi à éliminer 99,5% des radionucléides de cobalt dans l'eau tout en conservant environ 43% de l'eau sous forme nettoyée afin qu'elle puisse être réutilisée. Jusqu'à deux tiers de l'eau peut être réutilisée si le niveau de nettoyage est réduit à 98,3% des contaminants éliminés, a constaté l'équipe.

    Alors que la méthode globale a de nombreuses applications potentielles, la séparation des eaux usées nucléaires est "l'un des premiers problèmes que nous pensons pouvoir résoudre [avec cette méthode] pour lequel aucune autre solution n'existe", dit Bazant. Aucune autre méthode pratique, continue et économique n'a été trouvée pour séparer les isotopes radioactifs du cobalt et du césium, les deux principaux contaminants des eaux usées nucléaires, ajoute-t-il.

    Bien que la méthode puisse être utilisée pour le nettoyage de routine, elle pourrait également faire une grande différence dans le traitement de cas plus extrêmes, tels que les millions de gallons d'eau contaminée à la centrale électrique endommagée de Fukushima Daichi au Japon, où l'accumulation de cette eau contaminée a menacé de maîtriser les systèmes de confinement conçus pour l'empêcher de fuir dans le Pacifique adjacent. Bien que le nouveau système n'ait jusqu'à présent été testé qu'à des échelles beaucoup plus petites, Bazant dit que de tels systèmes de décontamination à grande échelle basés sur cette méthode pourraient être possibles "d'ici quelques années".

    https://phys.org/news/2019-12-contaminants-nuclear-wastewater.html

    RépondreSupprimer
  29. «Les méga tendances mondiales jusqu'en 2030» prévoient un avenir automatisé matriciel


    par Tyler Durden
    Ven, 20/12/2019 - 21:45
    Écrit par Daniel Taylor via OldThinkerNews.com,


    Global Mega Trends to 2030, un rapport récent de la société de conseil aux entreprises Frost & Sullivan, brosse un tableau d'un monde transhumain automatisé.

    La tendance principale est le transhumanisme, qui entraînera «une évolution axée sur la technologie à une vitesse de changement sans précédent, suscitant des questions plus profondes sur ce que c'est que d'être humain».

    Parmi les autres tendances identifiées dans le rapport, citons le passage global à l'automatisation, la réalité virtuelle conduisant à un «continuum réalité-virtualité totale» de type matriciel, un déploiement de la 6G et une «connectivité omniprésente à tout moment et en tout lieu d'ici 2030».

    Voici un résumé du rapport:

    1. Transhumanisme: L'humanité entre dans la montée d'une évolution axée sur la technologie à une vitesse de changement sans précédent, ce qui soulève des questions plus profondes sur ce que c'est que d'être humain.

    2. Monde autonome: les applications autonomes pourraient s'étendre au-delà des entrepôts jusqu'à la logistique extérieure, les industries, l'aérospatiale, les infrastructures de maison intelligente et les industries automobiles devenant entièrement automatisées et intelligentes.

    3. Vie connectée: L'intégration transparente des services vidéo, voix et données fournira un accès et une connectivité omniprésente à tout moment et en tout lieu d'ici 2030.

    4. Industrie 5.0: Grâce à l'interaction collaborative homme-machine, l'Industrie 4.0 commencera à évoluer vers l'Industrie 5.0 dans une transition emblématique vers une personnalisation de masse et une personnalisation extrême.

    5. La réalité numérique en tant que technologie de pointe: la technologie de réalité augmentée et virtuelle commencera à évoluer vers un continuum réalité-virtualité totale.

    6. Besoins complexes d'une société hétérogène: Une société hétérogène transformera les modèles commerciaux dans un ensemble diversifié d'industries.

    7. Les données comme le pétrole du XXIe siècle: les données deviendront aussi importantes que le pétrole, atteignant des segments de clientèle auparavant non desservis qui aident à ouvrir de nouvelles sources de revenus.

    8. L'ère des assistants numériques intelligents: les assistants intelligents optimiseront et personnaliseront les expériences quotidiennes dans toutes les activités et tous les environnements.

    9. «Uberisation» des industries: les services peer-to-peer (P2P) devraient transformer et pénétrer plusieurs applications non traditionnelles.

    10. Concept de monde «zéro»: une méga vision d’un monde de concept zéro, qui incitera les entreprises à changer d’orientation et à développer des produits et des technologies qui innovent à zéro.

    RépondreSupprimer

  30. 11. Rise of Platform Economy: les leaders du numérique consolideront les efforts pour construire un écosystème diversifié, comprenant des infrastructures sur lesquelles les plateformes sont construites.

    12. Zero Latency World: un monde sans latence émergera des progrès en cours de la 5G et de l'introduction de la 6G d'ici 2030, où des millions d'appareils connectés interagiront en temps réel avec une latence en microsecondes.

    Une renaissance pro-humaine pourrait perturber ces tendances et donner à l'humanité une chance de se libérer de la tyrannie technocratique.

    https://www.zerohedge.com/technology/global-mega-trends-2030-forecasts-matrix-automated-future

    RépondreSupprimer
  31. Les toilettes dystopiques ajoutent une douleur quadruple déchaînée aux employés faisant des pauses «Netflix et Poo»


    par Tyler Durden
    Ven, 20/12/2019 - 22:44


    Pour ceux qui font face à la crotte têtue occasionnelle, la conception des toilettes d'une nouvelle startup ajoutera un nouveau niveau de difficulté à ce combat de prix; vos quads seront en feu.

    Conçu par StandardToilet, basé au Royaume-Uni, le nouveau "trône'', incliné à un angle de 13 degrés, offre soi-disant une multitude d'avantages pour la santé - tout en encourageant les employés à abandonner la pause occasionnelle "Netflix et caca'' au fait qu'il devient inconfortable s'asseoir après seulement cinq minutes d'utilisation.

    Les toilettes dystopiques, approuvées par la British Toilet Association (BTA), ont été inspirées par "une série de désagréments", selon le fondateur de StandardToilet Mahabir Gill - qui dit avoir découvert que plus de quatre décennies en tant qu'ingénieur-conseil, il est devenu de plus en plus agacé de longue date. attend pour utiliser les toilettes - découvrant que certains collègues dormaient sur le pot, selon Wired.

    "Son principal avantage est pour les employeurs, pas pour les employés", a déclaré Gill au point de vente, ajoutant "Cela permet à l'employeur d'économiser de l'argent".

    Il semble que la lutte contre la répression du temps passé aux toilettes ait commencé. Après tout, le marché alternatif des toilettes est en plein essor. Les toilettes de style japonais font enfin leur apparition sur les marchés occidentaux et des produits comme le Squatty Potty nous offrent de nouvelles façons révolutionnaires de s'asseoir sur les toilettes. Les toilettes à compost sans eau répondent aux besoins des éco-conscients, tandis que d'autres pensent que l'avenir est sans rebord. Mais, est-ce que la police de votre caca est trop loin ?

    Le StandardToilet a reçu un soutien public de la BTA en novembre et se vend entre 150 et 500 £, et Gill est déjà en pourparlers avec plusieurs conseils locaux et les principales stations-service autoroutières pour distribuer son produit, et estime que leur marché s'étend aux gares, pubs, centres commerciaux et bureaux. -Câblé

    Cela dit, selon le rapport, une enquête de juillet a révélé que les travailleurs londoniens passent près de 30 minutes à prendre une merde.

    https://www.zerohedge.com/health/dystopian-toilet-adds-raging-quad-pain-employees-taking-netflix-and-poo-breaks

    RépondreSupprimer
  32. Paul Volcker: l'homme qui a vaincu l'or


    par Tyler Durden
    Ven, 20/12/2019 - 19:45
    Écrit par Joseph Salerno via The Mises Institute,


    Le flot de nécrologies qui a noté le décès de Paul Volcker (1927-2019) la semaine dernière a presque tous salué sa réussite en tant que président de la Fed (1979-1987) pour freiner l'inflation à deux chiffres qui a ravagé l'économie américaine au cours des années 1970.

    Volcker était désigné comme «l'ancien président de la Fed qui a combattu l'inflation» (ici); «Dompteur d'inflation» et «guerrier de l'inflation à part entière» (ici); et le «président de la Fed qui a fait la guerre à l'inflation» et a mené «la campagne de force brute de la Réserve fédérale pour maîtriser l'inflation» (ici). M. Volcker mérite certainement le mérite d'avoir freiné la grande inflation des années 1970. Cependant, il mérite également la part du lion de la responsabilité d'avoir déclenché la Grande Inflation aux États-Unis et dans l'économie mondiale en premier lieu.

    Car c'est M. Volcker qui a dirigé le programme annoncé le 15 août 1971 par le président Nixon, qui a suspendu unilatéralement la convertibilité en or des dollars américains détenus par des gouvernements étrangers et des banques centrales, imposé un gel fasciste des prix des salaires sur l'économie américaine et giflé une surtaxe de 10% sur les importations étrangères.

    Tragiquement, en rompant le dernier lien entre le dollar et l'or, le programme de Volcker a sabordé la dernière chance de restaurer un véritable étalon-or.

    Plus de deux ans avant que Nixon ne claque la «fenêtre d'or», Volcker, le sous-secrétaire du Trésor récemment nommé pour les affaires monétaires, a fait une présentation orale à Nixon et à ses conseillers les plus proches sur les problèmes de balance des paiements américains. La présentation était basée sur une note de service que le secret «groupe Volcker», initiée par Henry Kissinger, a passé cinq mois à préparer.

    Entre autres choses, Volcker a recommandé une poursuite des contrôles des capitaux pour soutenir le taux de change surévalué du dollar gonflé et une appréciation ou une «réévaluation» massive des monnaies de pays moins inflationnistes tels que l'Allemagne de l'Ouest, plaçant le fardeau de l'ajustement à l'inflation américaine sans retenue sur ces pays. Volcker a ensuite posé la bombe à retardement qui pourrait éventuellement faire exploser et sceller le sort de l'étalon-or. Il a suggéré à Nixon que si ces mesures ne fonctionnaient pas pour maintenir l'étalon pseudo-or du système de Bretton Woods, une ruée sur le stock d'or américain ne pourrait être évitée qu'en repoussant unilatéralement l'engagement américain d'après-guerre de convertir les avoirs en dollars officiels étrangers en or. . Malheureusement, le rapport du groupe Volcker a rejeté sommairement l'alternative d'augmenter - peut-être de doubler - le prix du dollar en or, c'est-à-dire de «dévaluer le dollar», ce qui aurait augmenté la valeur du stock d'or américain et facilité la restauration d'un véritable étalon-or .

    Seul un véritable étalon-or aurait pu stopper et inverser l'effondrement au ralenti que le système monétaire international connaissait depuis le milieu des années 1960 en raison de déficits de paiements américains importants et persistants, entraînés par la création de dollars prodigieux.

    Volcker, cependant, détestait et voulait se débarrasser des derniers vestiges de l'étalon-or et le remplacer par un système de taux de change fixe dominé par le dollar américain pour renforcer encore le pouvoir et le prestige des États-Unis dans les affaires internationales

    RépondreSupprimer
  33. Selon Volcker, «la stabilité et la force de notre monnaie ont été importantes pour maintenir le large rôle des États-Unis dans le monde».

    Des années plus tard, Volcker a révélé: «Je n'ai jamais pu ébranler le sentiment qu'une monnaie forte est généralement une bonne chose, et que c'est généralement un signe de vigueur, de force et de compétitivité.»

    Un de ses biographes a laissé entendre que le regret de longue date de Volcker d'avoir été rejeté pour le service militaire pendant la Seconde Guerre mondiale en raison de sa taille était à l'origine de sa détermination résolue à maintenir "la suprématie du dollar américain en tant que première devise mondiale".

    En effet, Volcker a lutté avec force pour faire paraître le dollar fort, même si l'impression d'argent rampante pour financer les programmes sociaux de la Grande Société et la guerre du Vietnam l'a affaibli inexorablement. Mais Volcker s'est opposé amèrement à l'augmentation du prix de l'or, car il craignait que la dévaluation ouverte du dollar gonflé ne diminue non seulement le statut et la réputation des États-Unis, mais récompenserait également les personnes et les pays qu'il détestait, à savoir les spéculateurs d'or et de producteurs d'or. des pays comme l'Union soviétique et l'Afrique du Sud. Il détestait particulièrement et voulait punir le président Charles de Gaulle et les Français pour avoir gêné et discrédité les États-Unis en se retirant de l'OTAN et en dénonçant la faiblesse du dollar en insistant pour convertir leurs dollars en or face aux menaces américaines de supprimer la protection militaire contre L'Union Soviétique. (Pour ajouter l'insulte à la blessure, de Gaulle avait envoyé des navires de guerre pour récupérer l'or français.)

    Quand une véritable ruée vers les actions aurifères américaines est apparue imminente au début de 1971, Volcker a préparé un mémorandum pour le nouveau secrétaire au Trésor, ancien gouverneur du Texas et principal agent politique John Connally. La note contenait trois propositions principales. Premièrement, les pays ayant des politiques monétaires moins inflationnistes, et donc des excédents de balance des paiements, comme l'Allemagne de l'Ouest et le Japon, seraient imposés d'apprécier sensiblement la valeur de leurs devises, encourageant ainsi les exportations américaines et étouffant ses importations tout en épargnant l'embarras de dévaluer ouvertement le dollar. Deuxièmement, Volcker a recommandé une frappe préventive contre l'or sous la forme d'une «suspension à sang froid» de la convertibilité de l'or. La proposition finale de Volcker était un gel temporaire des salaires et des prix.

    Comme l’un des biographes de Volcker a décrit sa motivation, «[Il] voulait que l’Amérique agisse de manière préventive, pour éviter l’apparition de la défaite aux mains des spéculateurs de devises.» (Je souligne.)

    Le secrétaire Connally a adhéré au programme de Volcker. Quand une grave crise du dollar a éclaté quelques mois plus tard, il a utilisé tous ses ruses politiques substantielles pour persuader Nixon des mérites du plan Volcker. Ensuite, le président de la Fed et conseiller de Nixon, Arthur Burns, pour toutes ses idées monétaires erronées et ses échecs politiques, était convaincu que l'or devait jouer - au moins nominalement - un rôle central dans le système monétaire international. En fait, «[après] l'entrée en fonction de Nixon, Burns a proposé de mettre fin au problème de la balance des paiements en augmentant le prix officiel de l'or», ce qui aurait «effectivement dévalué [d] le dollar».

    RépondreSupprimer
  34. De l'avis de Burns, cela maintiendrait l'or comme point d'ancrage d'un système de taux de change fixe, résultat que Volcker aurait détesté. Sans surprise, Burns a été "troublé" par Volcker, qui, selon lui, avait donné "une réponse stupide" à Nixon au sujet de l'augmentation du prix de l'or. Burns a également reconnu et déploré l'influence de Volcker sur Connally: «D'une manière ou d'une autre, le pauvre et misérable Volcker - ne sachant jamais où il en était sur aucun problème - avait réussi à instiller une peur irrationnelle de l'or dans son maître tyrannique qu'il essayait constamment de plaire en répondant à son la haine des étrangers (en particulier des Français). »

    Malheureusement, Burns avait gravement sous-estimé Volcker et avait confondu son tact et ses compromis stratégiques avec la vacillation et l'indécision. Comme l'a noté son biographe, Volcker

    admirait les compétences sociales de John Connally et avait beaucoup appris du maître politique. … Il préférait tergiverser, se qualifier et risquer d'être qualifié de mauvais communicateur plutôt que de feindre la certitude.

    En fin de compte, l'axe rusé Connally-Volcker a prévalu sur les Burns politiquement naïfs. Le biographe de Burns a clairement reconnu la ruse politique de Volcker pour gagner Nixon:

    Le président a décidé contre Burns. Paul Volcker l'a convaincu que la suspension [de la convertibilité de l'or] était inévitable et qu'un retard ne ferait que créer le chaos financier. Peut-être plus important encore, Nixon a réalisé que s'il annonçait cette décision dans le cadre d'un nouveau paquet économique, il semblerait agir de manière décisive pour prendre en charge la crise, faisant, comme l'a dit Volcker, «la dévaluation du dollar en triomphe politique. , ce qui n'était pas un mince exploit. "

    C'est ainsi que la note de Volcker a été utilisée comme base de la nouvelle politique économique qui a été élaborée par Nixon et ses conseillers, y compris Volcker, à Camp David et annoncée dans le discours fatidique de Nixon dimanche à la nation.

    Un obituariste a ainsi dressé la liste des «grandes réalisations publiques» de Volcker:

    Il était l'homme de confiance au Département du Trésor en 1971 qui gérait le détachement du dollar de l'or; il a réprimé l'inflation à deux chiffres qui a pris racine aux États-Unis à la fin des années 1970; il a aidé à guider la réponse du pays à la crise financière de 2008.

    Malheureusement, cette liste surestime considérablement les réalisations publiques de Volcker, car elle ne révèle pas le lien de causalité entre sa victoire sur les derniers vestiges de l'étalon-or et l'inflation du dollar fiat qui en a résulté, alors que l'approvisionnement était alors uniquement soumis aux décisions de bureaucrates désireux de plaire à leurs maîtres politiques.

    https://www.zerohedge.com/economics/paul-volcker-man-who-vanquished-gold

    RépondreSupprimer
    Réponses
    1. Le dollar et l'or sont deux marchés parallèles. Le dollars est évalué par une politique économique et l'or par un bureau d'escrocs qui détient la totalité de MP.

      Supprimer
  35. L'université vaut-elle la peine' ? Une étude dit peut-être pas


    par Tyler Durden
    Ven, 20/12/2019 - 17:25


    Le coût indûment élevé des frais de scolarité dans les collèges aux États-Unis a entraîné toute une génération dans l'esclavage de la dette. Aux États-Unis, le coût moyen d'un diplôme de 4 ans est 3 fois plus élevé qu'en 1990. Même les frais de scolarité dans les écoles publiques augmentent plus rapidement que les revenus.

    Alors que de plus en plus de personnes sont obligées de s'endetter profondément pour payer leurs études, de plus en plus d'étudiants potentiels sont contraints de regarder attentivement et de réévaluer le retour sur investissement pour un diplôme universitaire.

    Et comme les frais de scolarité au collège continuent de dépasser la croissance des salaires, pour un nombre croissant de personnes, la réponse à la question: «le collège en vaut-il la peine ? va être non.

    Un journaliste de Clever.com a fait quelques recherches et a compilé le retour sur investissement sur différents types de diplômes: le baccalauréat, la maîtrise et le doctorat.

    De manière générale, les personnes ayant au moins un baccalauréat gagnent généralement plus d'argent au cours de leur vie que celles qui n'ont jamais fréquenté le collège, et il est également plus facile d'obtenir un emploi avec un diplôme.

    Mais alors que les Américains titulaires d'un baccalauréat peuvent être sur quelque chose, ceux qui obtiennent un diplôme de maîtrise et de doctorat ne peuvent pas en dire autant.

    Alors que près de la moitié de la population a un baccalauréat, seulement 13% des Américains ont un diplôme de maîtrise ou de doctorat.

    Et selon l'analyse de Clever, de nombreux diplômes de niveau supérieur ne valent peut-être pas le temps et l'argent que les étudiants dépensent.

    En fait, plus quelqu'un passe plus de temps à l'école, plus la valeur de ses diplômes diminue.

    Bien sûr, le retour sur investissement change en fonction du sujet étudié par un individu. Clever a constaté que les meilleurs diplômes de baccalauréat, sans surprise, ont tendance à être dans le domaine des STIM: recherche opérationnelle, génie pétrolier, sciences biologiques et physiques, biopsychologie et gérontologie.

    En regardant vers l'avenir, la majeure qui a les meilleures perspectives d'emploi potentiel est - surprise, surprise - ingénierie. Bien sûr, même certains sous-ensembles du domaine de l'ingénierie commencent à voir la demande de nouveaux travailleurs ralentir alors que le chômage aux États-Unis reste (heureusement pour la plupart des Américains) bloqué à des creux de plusieurs décennies.

    Lorsqu'il s'agit d'évaluer une éducation, le calcul du retour sur investissement et la réalisation d'autres analyses financières simples peuvent être utiles. Mais il y a un aspect intangible dans l'éducation qui mérite également d'être examiné. Une façon d'explorer cela est d'étudier dans quelle mesure ils trouvent leur emploi «significatif»

    RépondreSupprimer
  36. Ici, les données nous montrent quelque chose que nous trouvons très intéressant. À savoir, ceux qui dépensent plus d'argent pour un baccalauréat à faible retour sur investissement trouvent souvent que leur carrière est plus «significative» que votre ingénieur moyen. Cela signifie-t-il qu'il existe une relation inverse entre l'accomplissement spirituel et la compensation monétaire en ce qui concerne le cheminement de carrière de chacun? Peut-être. Mais voudrais suggérer une autre explication possible.

    Les enfants des riches d'Amérique choisissent souvent des domaines à faible rendement comme le journalisme et l'anglais, car ils ne subissent pas autant de pression pour maximiser leurs revenus (leurs parents couvrent très souvent le coût de leurs études et de leurs frais de subsistance), ils peuvent profiter de trouver un "sens'' dans des carrières peu rémunérées comme être un gestionnaire de médias sociaux ou écrire pour Gawker Media - des carrières qui ne nécessitent pas non plus le travail acharné et le dévouement requis, disons, d'un ingénieur en mécanique chez Boeing.

    https://www.zerohedge.com/economics/college-worth-it-one-study-says-maybe-not

    RépondreSupprimer
    Réponses

    1. La concurrence non-rattrapable de l'Internet ainsi que la présence de professeur en ligne et documents scientifiques entr'autres, font qu'aujourd'hui dès son entrée en maternelle l'enfant sait qu'il est pris pour un con et qui sera dirigé vers la Greta-génération !

      Supprimer
  37. FRANCE - LA DETTE PUBLIQUE GRIMPE À PLUS DE 100% DU PIB

    L'endettement de l'Etat français culmine à 100,4% de son PIB, selon le nouveau mode de calcul, qui intègre la dette de la SNCF. Il est supposé être en-dessous de 60% du PIB.


    20.12.2019, 10h39


    La dette publique de la France a fortement augmenté au troisième trimestre pour atteindre 100,4% du PIB, dépassant la richesse nationale pour la première fois depuis 2017, a rapporté vendredi l'Insee, mais le gouvernement maintient sa prévision de 98,8% pour la fin de l'année et anticipe une décrue pour 2020.

    L'endettement public a progressé fin juin et fin septembre de 39,6 milliards d'euros à 2.415 milliards d'euros, a précisé l'Institut national des statistiques. Ce n'est pas la première fois que la dette publique française dépasse les 100% du PIB, du moins selon le nouveau mode de calcul, qui intègre la dette de la SNCF.

    En 2017, elle avait ainsi atteint 100,7% au premier trimestre et 100,9% au deuxième trimestre. Mais cette année là, la dette publique annoncée était restée en-dessous de la barre des 100%, car la dette de l'opérateur public des chemins de fer n'avait pas encore été intégrée. Les ratios avaient été recalculés a posteriori l'année suivante.

    Malgré la hausse de 0,9 point de PIB de l'endettement public au troisième trimestre, le gouvernement maintient sa trajectoire de désendettement.

    «Cela ne remet donc pas en cause les prévisions du gouvernement, à 98,8% du PIB fin 2019, car le ratio de dette en fin d'année 2019 sera inférieur, après des remboursements de capital importants en octobre et en novembre», a appris l'AFP auprès du ministère des Comptes publics après la publication des chiffres de l'Insee.

    «Raisons techniques»

    Le gouvernement explique que «cette hausse de la dette au troisième trimestre était attendue» et «provient de raisons techniques liées à la gestion de la dette». «Plus spécifiquement, elle provient du calendrier des émissions et des amortissements de titres de dette», détaille-t-on de même source.

    Le gouvernement rappelle anticiper «que le ratio de dette amorcera sa décrue à compter de 2020». L'Insee explique qu'à la fin septembre, la «hausse provient principalement de la dette négociable à long terme ( 35,8 milliards d'euros) et dans une moindre mesure de la dette négociable de court terme ( 4,1 milliards)», selon un communiqué de l'Insee.

    «Cette progression de l'endettement de l'État s'accompagne d'une augmentation importante de sa trésorerie ( 22,5 milliards)», ajoute l'Insee. L'institut avertit que «la variation de la dette ne permet pas de déduire le déficit public», et que la dette publique brute n'est pas exactement la même que la dette au sens du traité de Maastricht, de laquelle est exclue «la variation des actifs financiers et des passifs».

    Le traité de Maastricht stipule que l'endettement public des Etats de la zone euro ne doit pas dépasser 60% du PIB, et que le déficit public doit être contenu sous la barre de 3% du PIB.

    En 2018, une croissance légèrement plus forte qu'attendu, à 1,6% au lieu de 1,5%, avait permis à la dette publique de se stabiliser à 98,4% du PIB.

    En 2019, la hausse du PIB attendue n'est que de 1,3%, et le déficit public, limité à 2,5% l'an dernier, devrait remonter à 3,1% en raison du remplacement du CICE par un allègement de charges pérenne pour les entreprises, qui entraîne en 2019 un manque à gagner temporaire pour l'Etat de l'ordre 20 milliards d'euros, ou 0,9 point de PIB.

    (afp/nxp)

    https://www.lematin.ch/economie/dette-publique-grimpe-100-pib/story/11959452

    RépondreSupprimer
  38. FRANCE : LA DETTE PUBLIQUE DÉPASSE 100% DU PIB


    par ANTON KUNIN
    20/12/2019


    Au troisième trimestre 2019, la France a pris de nouveaux engagements à long terme à hauteur de 35,8 milliards d'euros.

    À la fin septembre 2019, la dette publique française s’est établie à 100,4% du PIB, contre 99,5% trois mois plus tôt, annonce l’INSEE.

    En 2019, la France s’endette surtout à long terme

    Cela faisait une décennie que la dette publique française dépassait 90% du PIB, elle dépasse désormais 100%. Plus précisément, à fin septembre 2019 elle s’établit à 100,4%, révèle l’INSEE. En chiffres absolus, on parle de 2 415,1 milliards d’euros, soit une hausse de 39,6 milliards d’euros par rapport au deuxième trimestre 2019.

    Si la dette globale des administrations publiques a augmenté, c’est notamment à cause de l’augmentation de la dette de l’État (+41,6 milliards d’euros sur le trimestre). Il s’agit surtout d’engagements de long terme (+35,8 milliards d’euros) et, dans une moindre mesure, de la dette de court terme (+4,1 milliards d’euros). La dette des administrations publiques locales a en revanche diminué : les régions (-0,6 milliard d’euros) mais aussi les départements (-0,3 milliard d’euros) ont réussi à se désendetter quelque peu.

    La dette publique devrait diminuer en 2020

    Rappelons qu’un tel niveau de dette est très élevé par rapport à ce qu’impose le traité de Maastricht (60% du PIB maximum). Bercy ambitionne bien de réduire l’endettement : pour le moment, l’exécutif se fixe l’objectif de 98,7% du PIB en 2020.

    Selon les interlocuteurs du journal Le Monde au sein de Bercy, l’endettement réel en cette fin de décembre 2019 est déjà inférieur aux 100,4% annoncés par l’INSEE aujourd’hui. L’INSEE donne le chiffre à fin septembre 2019, qui ne prendrait pas en compte les progrès en matière de désendettement accomplis au cours du quatrième trimestre 2019. À fin 2019, la dette publique française s’établirait donc à 98,8% du PIB.

    http://www.economiematin.fr/news-dette-publique-france-endettement-pib

    RépondreSupprimer
  39. LE PASSAGE DE L'ISF À L'IFI A FAIT GAGNER AUX MÉNAGES ASSUJETTIS 6.700 EUROS


    par ANTON KUNIN
    19/12/2019


    50% de l'ISF étaient payés par les 1% des foyers français les plus aisés.

    Même si le périmètre de l’IFI n’est pas le même que celui de ISF, les ménages ont globalement gagné de cette transformation. Un même ménage assujetti à l’ISF en 2017 et à l’IFI en 2018 a pu économiser 6.700 euros ne moyenne, nous apprend l’INSEE dans une étude sur l’impact de cette réforme.

    Suppression de l’ISF : 340.000 ménages ont vu leur charge fiscale diminuer

    La transformation de l’ISF en IFI, a-t-elle bénéficié aux ménages assujettis ? Globalement, oui, répondent les auteurs d’une étude de l’INSEE sur le sujet. Selon leurs calculs, la réforme a fait 340.000 ménages gagnants, tandis que 10.000 ménages sont perdants, principalement du fait de la perte de la réduction PME ou de la non-déductibilité du passif mobilier à partir de 2018. L’effet moyen sur le niveau de vie des ménages concernés par la transformation est de +6.700 euros en 2018, soit un gain substantiel.

    Les 10% des personnes les plus aisées ont obtenu plus des deux tiers du gain total, et les 15% les plus aisés en ont obtenu près de 80%. Cependant, si le gain est concentré dans le haut de la distribution, certains ménages n’appartenant pas aux ménages les plus aisés sont également gagnants.

    Les retraités assujettis ont vu leur niveau de vie progresser de 0,7%

    Il existe en effet des ménages ayant de hauts revenus mais pas de patrimoine important. Les statistiques nous montrent que moins de la moitié des ménages dans les 10% les plus aisés (en niveau de vie) appartiennent aux 10% de ménages possédant les plus hauts niveaux de patrimoine.

    Ceux qui avaient dit que la réforme bénéficierait aux retraités avaient raison : le nombre de ménages gagnants est plus élevé au sein des ménages dont la personne de référence a 70 ans ou plus que dans les autres tranches d’âge. Le gain de niveau de vie s’élève à +0,7% pour les retraités, mais aussi de +0,6% pour les indépendants, autre population gagnante. Sans surprise, les personnes ayant le plus bénéficié de la mesure sont les retraités anciens indépendants.

    http://www.economiematin.fr/news-isf-ifi-impact-reforme-niveau-vie-menages

    RépondreSupprimer