- ENTREE de SECOURS -



samedi 31 août 2019

Internet et la mémoire du futur

Composante essentielle mais mal connue, la mémoire du futur nous permet de nous projeter, d’anticiper, de prendre des décisions. Elle constitue le vecteur de notre libre arbitre. Il faut la protéger.


Par Francis Eustache.
Un article de The Conversation
30 AOÛT 2019


Internet nous ferait-il perdre la tête ? Notre fonctionnement neurocognitif et, partant, nos comportements et nos pratiques sociales, sont grandement impactés par les nouvelles technologies de l’information et de la communication. Un exemple parmi de nombreux autres : la perte de concentration résultant des sollicitations incessantes de nos téléphones portables et connectés, à grand renfort d’alertes, sonneries, émoticons, images animées… Quant aux conséquences sur la structure et le fonctionnement du cerveau, les travaux publiés sont moins consensuels. Pourtant, une réduction de l’épaisseur corticale dans les régions frontales a été montrée chez des enfants de 10/12 ans qui passaient 8 à 10 heures par jour devant des écrans.

Je souhaite ici traiter des conséquences que peut avoir l’usage de ces nouvelles technologies sur la mémoire en m’appuyant sur des publications récentes : The « online brain » : how the Internet may be changing our cognition un article de synthèse paru dans Word Psychiatry ; ainsi que deux ouvrages dont j’ai coordonné la publication. Avec mes collègues, nous insistons sur une composante de la mémoire, appelée « mémoire du futur », ou pensée épisodique future, qui nous permet de nous projeter dans le futur et contribue à notre créativité et à nos prises de décisions.

Pour commencer, soulignons qu’il est difficile d’étudier les effets des technologies numériques sur les cerveaux car les études qui en mesurent l’impact sur le fonctionnement neurocognitif et mnésique sont encore peu nombreuses. Il est en particulier compliqué d’examiner les choses à grande échelle en faisant des comparaisons de populations, puisque les groupes qui échappent à l’emprise d’Internet sont extrêmement peu nombreux dans le monde.

Et pourtant, l’état de nos cerveaux au regard de l’utilisation effrénée de ces nouvelles technologies peut être discuté à travers ce que l’on connaît des contraintes du fonctionnement cognitif. On sait bien, par exemple, qu’une attention soutenue est nécessaire pour de nombreux apprentissages ; et que les situations de tâches multiples ont un effet délétère sur la qualité de l’encodage en mémoire.

INTERNET ET LES ÉCRANS

Sur un plan psychophysique, l’usage intempestif des écrans peut nuire à la rétine chez les enfants, plus particulièrement chez les tout petits. L’exposition à leur lumière bleue provoque une chaîne de réactions biochimiques qui conduisent à la création de molécules toxiques dans les cellules photo-réceptrices de la rétine.

De plus, l’utilisation des écrans en soirée, via la lumière bleue, réduit la quantité de sommeil mais aussi sa qualité et, in fine, perturbe la consolidation en mémoire, dépendante de l’activité des différents cycles du sommeil. Un écran n’est pas, en soi, un dispositif dangereux mais son temps d’utilisation doit être adapté en tenant compte de l’âge de l’utilisateur, tout particulièrement chez les plus petits.

Il s’agit aussi d’atteintes des fonctions cognitives et des capacités à interagir avec autrui. Ainsi, la Société canadienne de pédiatrie recommande d’éviter tout écran avant deux ans et de ne pas dépasser une heure par jour entre deux et cinq ans, temps d’utilisation qui sont pourtant largement dépassés dans ce pays. En France, l’Académie des sciences estime que, chez les enfants âgés de 6 à 12 ans, l’école élémentaire est le meilleur lieu pour engager l’éducation systématique aux écrans. Une éducation précoce de l’enfant à l’autorégulation est essentielle.

Au-delà de 12 ans, chez l’adolescent, les outils numériques possèdent une puissance inédite pour mettre le cerveau en mode hypothético-déductif, ce qui est positif pour l’exploration de solutions. En revanche, une consultation excessive d’Internet peut créer une pensée « zapping », rapide et superficielle, appauvrissant la mémoire et les capacités de synthèse personnelle. Or, chez les pré-adolescents et les adolescents, le temps réellement passé devant les écrans est difficile à évaluer.

Ces usages disproportionnés pourraient faciliter la survenue de troubles neurodéveloppementaux chez l’enfant, tout particulièrement de type attentionnel, dont la prévalence est en forte augmentation. Mais il y a aussi des effets indirects. La mauvaise alimentation, le surpoids, l’obésité en constituent quelques exemples. On parle d’« effet de déplacement » pour signifier que le temps occupé devant les écrans se substitue à d’autres activités : lire, courir, échanger, imaginer…

Des chercheurs ont émis l’hypothèse que cette utilisation intempestive aurait une part de responsabilité dans l’incidence accrue des retards de langage et autres troubles neurodéveloppementaux, voire de la réduction de l’épaisseur corticale constatée chez des enfants d’une douzaine d’années passant huit heures par jour devant les écrans.

L’un des problèmes posés par ces nouveaux dispositifs de communication est la rupture de l’équilibre entre mémoire interne et mémoire externe. La mémoire interne, c’est celle de l’individu. La mémoire externe, artificielle, se développe via différents outils, comme l’écriture, l’imprimerie, l’audio, la vidéo, le numérique. Le concept de disruption renvoie à cette accélération de la place des outils techniques, à leur omniprésence, notamment des outils numériques, évolution rapide et massive que ne peuvent plus absorber les psychologies individuelles et les organisations sociales.

Cela crée l’impression d’un temps qui s’accélère, d’une difficulté à le maîtriser, à hiérarchiser les priorités, un sentiment d’être sans cesse dans l’urgence sans traiter les informations en profondeur et sans pouvoir ainsi les synthétiser, les assimiler.

MODE PAR DÉFAUT

Découvert par l’imagerie cérébrale, le réseau cérébral du mode par défaut s’active quand nous ne sommes pas en prise directe avec notre environnement, mais que nous nous tournons au contraire vers nos pensées internes : mémoire autobiographique, anticipation du futur, scénarios imaginés plus ou moins plausibles, mais aussi pensées créatives et fantasmagoriques. Il implique la synchronisation de différentes structures situées dans les régions médianes du cerveau. Ce réseau est important pour notre équilibre psychique et émotionnel ainsi que pour la cohérence de la mémoire. Il autorise la possibilité d’un voyage mental : vers le passé, vers le futur, vers autrui.

Le mode par défaut ne fonctionne pas seul mais interagit de façon dynamique avec d’autres réseaux cérébraux. Ainsi, son interaction avec celui chargé du contrôle exécutif, situé dans les régions antérieures du cerveau, est importante dans des moments de créativité ou dans des situations de choix stratégiques qui impliquent de tester de nouvelles hypothèses. Des travaux de neuro-imagerie suggèrent que la projection dans le futur est sous-tendue par le réseau du mode par défaut, en interaction avec d’autres réseaux cérébraux.

Or, ce réseau est de plus en plus malmené, notamment chez les enfants et les adolescents, du fait du contexte qui entoure l’utilisation des nouvelles technologies. Ce sont elles qui occupent la place, d’abord avec notre complicité, puis à nos dépens car nous ne faisons pas le poids face à ces outils hyperconnectés, dotés d’unités centrales de plus en plus puissantes. Un encadrement éthique est nécessaire pour réguler l’usage et les contenus des « mémoires externes », si l’on veut préserver les « mémoires internes ». Et donc les mémoires du futur des jeunes générations.

PROTÉGEONS LA MÉMOIRE DU FUTUR

Il ne s’agit pas de sombrer dans le catastrophisme et le passéisme mais d’insister sur le fait que le progrès doit être mis à disposition de tous, notamment des plus fragiles. Il ne doit pas être réservé à une « élite » qui en tire des bénéfices à grande échelle en uniformisant et en manipulant les citoyens du monde. La mémoire des humains n’est pas seulement faite de passé. Composante essentielle mais mal connue, la mémoire du futur nous permet de nous projeter, d’anticiper, de prendre des décisions. Elle constitue le vecteur de notre libre arbitre. Il faut la protéger.

Francis Eustache, Directeur de l’unité Neuropsychologie et neuroanatomie fonctionnelle de la mémoire humaine, Inserm, Ecole Pratique des Hautes Etudes, Université de Caen Normandie, Université de Caen Normandie

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

vendredi 30 août 2019

«Le potentiel du cerveau humain est infini», confie à Sputnik un spécialiste en intelligence artificielle

17:20 30.08.2019


L’intelligence artificielle (IA) est au centre des discussions d’une conférence internationale à Shanghai, où Elon Musk a estimé qu’elle dirigera bientôt l’humanité. L’expert en technologies informatiques Gao Xiaorong a confié à Sputnik qu’il était encore loin de mettre en place les technologies avancées basées sur l’IA.

Le directeur de Space X et Tesla Motors, Elon Musk, et le président d'Alibaba Group, Jack Ma, ont ouvert la Conférence internationale sur l’intelligence artificielle 2019 qui se déroule à Shanghai, partageant leurs visions sur la vie avec l’intelligence artificielle. Jack Ma a de son côté déclaré que dans le futur l'humanité, la semaine de travail pourrait passer à 12 heures grâce à l'intelligence artificielle.

«À mesure que se développe l'Internet, les postes de travail dans le futur deviendront d’un concept vague. Les gens pourront travailler dans des conditions beaucoup plus libres», a déclaré à Sputnik Gao Xiaorong, professeur au collège médical de l'Université Tsinghua et expert dans le domaine de recherches des technologies informatiques.

Le fondateur de Tesla, Elon Musk, a proposé de mettre en place un projet baptisé Neuralink qui porte sur la connexion du cerveau humain à l'ordinateur pour «priver les étudiants de la nécessité de passer du temps à des cours ennuyeux». L’idée principale est la connexion directe entre l'ordinateur et le cerveau et ce à des fins médicales.

Néanmoins, Gao Xiaorong estime qu'il faudra encore du temps avant de mettre en pratique de telles technologies.

«Aujourd’hui, l'interface "cerveau-ordinateur" se subdivise en invasive et non-invasive. La chirurgie invasive demande une implantation d’un électrode ou microélectrode au cerveau. Celle non-invasive est l’installation d’un électrode sur la tête, sans intervention chirurgicale. Avec les électrodes d'hôpitaux, on peut le réaliser, mais cela ressemble à un casque. Dans les deux cas, nous avons un progrès. Mais ce sera long avant de les mettre en pratique».

Lors de la conférence, Elon Musk a indiqué que l’intelligence artificielle était déjà plus brillante que l’intelligence humaine sur plusieurs paramètres et qu’elle dirigera bientôt l’humanité. Comme un argument en faveur de cette vision, il a rappelé les succès d’AlphaGO, un programme informatique capable de jouer au jeu de go. Jack Ma, au contraire, estime que l’intelligence artificielle ne pourra jamais remplacer celle de l’homme.

«Malgré le fait que l'intelligence artificielle surpasse les possibilités des développeurs à certaines fonctions, le potentiel du cerveau humain est infini: une personne peut inventer un nombre infini des nouveaux objets, quant à l’intelligence artificielle, elle ne peut pas inventer, elle doit apprendre à le faire», a conclu l’interlocuteur de Sputnik.

jeudi 29 août 2019

Rester jeune par tous les moyens




Testotérone : Visage traité puis scotché 24 h puis, 8 j. après, arrachage de la vieille peau. Le visage est rougi, bouffi mais beau. 24 h après, le visage reprend sa couleur normale et se dégonfle. Résultat parfait 10 ans de moins.

Cellules souches ($7000)

Télomérase (multiplication infinie des cellules qui peuvent devenir cancer !)

Passer de 86 ans (pour les hommes) et 91 ans (pour les femmes) à 150 ans ?

Testotérone, DHEA, Hormone de croissance ?

mercredi 28 août 2019

Censure : la science menacée ?

Tribune libre : ce sont parfois les pairs, et non les hommes de pouvoir, qui nuisent le plus à la découverte scientifique.


Par Boris Lapeyre de Cabanes
28 AOÛT 2019. 


E pur, se muove. La petite phrase (authentique ou fabulée) de Galilée au sortir du procès au cours duquel il avait été forcé d’abjurer sa théorie du mouvement des planètes, en 1633, a depuis des siècles servi de fondement à la démarche scientifique. Elle tend à rappeler aux hommes de science et aux chercheurs en général que la science ne peut se laisser arrêter par les convenances ou les croyances de son temps, et ne doit pas céder aux institutions politiques et religieuses qui chercheraient à l’orienter dans une direction favorable à leurs desseins.

C’est l’occasion de rappeler que ce sont parfois les pairs, et non les hommes de pouvoir, qui nuisent le plus à la découverte scientifique : ce sont les universitaires les plus opposés à ses théories qui ont dénoncé Galilée à l’Inquisition, voyant en lui un rival qui nuisait au confort du statu quo.

Il me semble aujourd’hui voir émerger à nouveau dans le monde scientifique les vieux démons qui jadis ont fermé la porte de l’université à Galilée : entre la validation, par nombre d’éminents experts du sujet, d’études loufoques sur la culture du viol chez les chiens, l’absence de commentaires autour du Climategate, ou le silence coupable d’une grande partie de la communauté scientifique à l’égard des inepties de Greta Thunberg (non, on ne peut pas voir le gaz carbonique à l’œil nu), les défenseurs de la rigueur scientifique semblent s’être tus ces dernières années.

LE CONSTAT

Commençons par quelques mots au sujet de l’histoire de la recherche scientifique. Un premier point, qui semblera peut-être au premier abord anecdotique au lecteur, est en réalité d’une importance capitale : la science n’avance pas d’erreurs en vérités, mais d’erreurs en meilleures erreurs.

Autrement dit, des théories scientifiques peuvent être vraies à l’intérieur de certaines limites, connues ou inconnues de leur auteur ; à mesure que l’on découvre leurs limites, de nouvelles théories émergent pour les compléter, et ainsi de suite. La géométrie euclidienne en est un exemple intéressant : pendant deux millénaires, on a admis que la droite était le chemin le plus court pour relier deux points, jusqu’à ce que la théorie de la relativité générale d’Einstein montre que les déformations de l’espace engendrées par des objets de masse importante réfutaient cette définition. Ainsi, il est impossible de prouver qu’une théorie est vraie dans l’absolu, mais il est possible, par l’expérience, de déterminer son champ d’application, ou de l’invalider tout à fait (le voyage entrepris par Magellan en 1522 a achevé de réfuter les théories niant la rotondité de la Terre).

Pour reprendre des termes chers à Karl Popper, la science avance donc de conjectures en réfutations. Notons ici que le progrès technique permet de mesurer de manière de plus en plus précise l’adéquation de certaines théories à la réalité, et ainsi de les améliorer (on a ainsi remarqué que la Terre n’était pas tout à fait ronde, que sa révolution autour du Soleil avait la forme d’une ellipse et non d’un cercle, etc.).

Puisque la vérité absolue n’est pas atteignable, on évaluera donc une théorie scientifique à l’aune de son efficacité à prédire le comportement de l’objet auquel elle s’attache dans un certain cadre, ou de l’utilisation pratique que l’on pourra en faire. Si les théories de la gravitation ayant complété celle de Newton n’avaient pas été capables de prédire les mouvements de la Lune, jamais l’Homme n’y aurait mis les pieds.

Entrons donc dans le vif du sujet. Le sens commun veut qu’une théorie qui ne parvient pas à prédire correctement le comportement de son objet d’études mérite d’être revue, complétée, ou abandonnée. Comment expliquer alors que malgré les erreurs flagrantes (voir graphique ci-dessous) de prédiction des modèles climatiques des trente dernières années, on utilise encore les mêmes théories pour prédire une augmentation de 2°C de la température moyenne du globe d’ici à 2100 ?



On me répondra que les modèles du GIEC sont régulièrement mis à jour pour tenir compte des erreurs des précédents. C’est croire que l’institution qui publie depuis trente ans des théories erronées pourrait, sans intervention extérieure, admettre ses erreurs et tenter de corriger la théorie. Ce qui est en réalité un vœu pieux, puisque le GIEC a pour objectif de rechercher uniquement les éléments tendant à montrer que le réchauffement climatique est d’origine anthropique ; en orientant ainsi sa recherche, les conclusions de ses travaux sont nécessairement biaisées, aussi sont-elles à lire avec précaution.

Le soutien quasi-unanime de la communauté scientifique à la parole du GIEC est donc assez surprenant, et j’en vois au moins deux causes. En dehors de l’attrait qu’ont depuis des temps immémoriaux, les récits de fin du monde (on se souviendra des prédictions simplistes de Malthus en 1803, des rapports tout aussi éloignés de la réalité du Club de Rome ou du pari manqué de Paul Ehrlich), il me semble qu’un phénomène tout autre est à l’œuvre ici : la tyrannie de l’opinion publique.

L’OPINION PUBLIQUE, LE PLUS ACHARNÉ DES TYRANS

Tocqueville pointait déjà du doigt en 1840 comment, en démocratie, l’opinion publique pouvait se faire juge, jury et bourreau en prenant l’exemple d’un petit journal de Baltimore opposé à la guerre de 1812 dont les journalistes avaient été lynchés par la population qui y était favorable et soupçonnait les journalistes de conspirer avec l’ennemi britannique.

Aujourd’hui, les mœurs sont différentes, mais les instincts n’ont pas changé : il suffit pour s’en convaincre de s’intéresser au tollé provoqué par la nomination du statisticien danois Bjørn Lomborg à un poste à l’université d’Australie de l’Ouest, tollé si violent que l’université a finalement fait marche arrière. Il est aisé d’expliquer ce phénomène : lorsqu’un professeur émet des doutes sur les conclusions du GIEC, ses opinions sont rapidement connues du grand public grâce à la magie d’Internet, ce qui provoque habituellement un mouvement d’indignation collective appelant à sa démission.

L’université à laquelle il est rattaché fait en général le choix courageux de ne pas s’opposer à la vague de protestations pour préserver sa réputation, et l’invite poliment à retirer ses propos, ou à quitter son poste. Dans un style tout autre, on pourrait également citer l’appel à la censure lancé par Claire Nouvian suite à son passage sur le plateau de Pascal Praud. Quelles qu’aient pu être les inepties énoncées sur ce plateau, faire appel à la censure pour y répondre relève d’une forme de pusillanimité intellectuelle, et rappelle les stratagèmes mis en œuvre par les adversaires de Galilée, il y a quatre siècles.

Dois-je rappeler à quel point cet environnement nuit à la recherche scientifique ? Comment, à force de faire taire les voix dissonantes, on étouffe le débat, on dissuade l’audace et l’on condamne la recherche à des questions de forme et des trouvailles incrémentales ? J’imagine que les exemples de Galilée et de Darwin montrent assez bien combien de siècles de tels environnements font perdre à la science. Et pour chaque Copernic assez brave pour s’exiler afin de poursuivre ses recherches, combien de Zénon ont dû se taire devant les institutions censées incarner la vérité ? Et combien se taisent aujourd’hui, par peur de la vindicte populaire ?

Avant d’achever mon propos, je souhaite rappeler au lecteur le sujet de cet article : pointer du doigt une inquiétante tendance à la censure dans le domaine scientifique. Je ne cherche évidemment pas à démontrer que telle ou telle théorie est fausse, mais à rappeler que le concept de vérité, si souvent dévoyé par la populace dans ses cris « science is settled », est hors de propos lorsqu’il est question de recherche scientifique. Cette citation de Nietzsche résumera mon propos : « Jamais la vérité ne s’est accrochée au bras d’un intransigeant ».

mardi 27 août 2019

Tandis que les célébrités transmettent de fausses images de Burning Amazon, voici à quoi ressemblent les incendies qui font rage



par Tyler Durden
Mar., 27/08/2019 - 13:21


Les dizaines de milliers d'incendies qui brûlent actuellement en Amazonie ont attiré l'attention des environnementalistes, des politiciens et des célébrités. Malheureusement, beaucoup d’entre eux ont diffusé de mauvaises informations sous la forme d’images de plusieurs décennies et de faits incorrects, tels que l’affirmation selon laquelle l’Amazonie est le "poumon du monde", selon Forbes.

Des chanteurs et des acteurs tels que Madonna et Jaden Smith ont partagé des photos sur les médias sociaux vues par des dizaines de millions de personnes. "Les poumons de la Terre sont en flammes", a déclaré l'acteur Leonardo DiCaprio. "La forêt amazonienne amazonienne produit plus de 20% de l’oxygène dans le monde", a tweeté la star du football, Cristiano Ronaldo. "La forêt amazonienne - les poumons qui produisent 20% de l'oxygène de notre planète - est en feu", a tweeté le président français Emanuel Macron. -Forbes

La forêt amazonienne produit plus de 20% de l’oxygène dans le monde et brûle depuis 3 semaines. C’est notre responsabilité d’aider à sauver notre planète. #prayforamazonia pic.twitter.com/83bNL5a37Q
- Cristiano Ronaldo (@Cristiano) 22 août 2019

Notre maison brûle. Littéralement. La forêt amazonienne - les poumons qui produisent 20% de l’oxygène de notre planète - est en feu. C'est une crise internationale. Membres du sommet du G7, discutons de cette première commande urgente dans deux jours  #ActForTheAmazon pic.twitter.com/dogOJj9big
- Emmanuel Macron (@EmmanuelMacron) 22 août 2019

- voir clip sur site -


Et alors que les incendies qui font rage en Amazonie sont sans aucun doute préoccupants, "les photos ne sont pas réellement des incendies et beaucoup ne sont même pas de l’Amazonie", selon Forbes.

La photo partagée par Ronaldo a été prise dans le sud du Brésil, loin de l'Amazonie, en 2013. La photo partagée par DiCaprio et Macron a plus de 20 ans. La photo partagée par Madonna et Smith a plus de 30 ans. Certaines célébrités ont partagé des photos du Montana, de l'Inde et de la Suède. -Forbes

Et comme l'a noté vendredi le New York Times, "ces incendies n'ont pas été causés par le changement climatique", et l'Amazonie n'est pas non plus un "poumon du monde".

"Ce sont des conneries", a déclaré Dan Nepstad, l'un des plus grands experts mondiaux de la forêt amazonienne. "Il n’y a pas de science derrière cela. L’Amazonie produit beaucoup d’oxygène mais utilise la même quantité d’oxygène par la respiration, c’est donc un lavage."
CNN affirme également que les incendies brûlent à un rythme record, ainsi que l’un des principaux reporters sur le climat qui a déclaré: "Les incendies actuels sont sans précédent depuis 20 000 ans".
Selon Nepstad, le nombre d'incendies en 2019 n'a été que de 7% supérieur à la moyenne des 10 dernières années.

Alors, à quoi ressemblent les incendies ?

Voici quelques photos actuelles de la dévastation du photographe Leonardo Carrato, via Bloomberg
Selon les données de l’INPE, le biome amazonien représentait 52% des déclarations d’incendies au Brésil cette année, avec plus de 40 000 foyers depuis janvier.

Rien qu'en août, plus de 26 000 incendies ont été détectés dans cette région.

Les efforts de conservation ont limité la déforestation en Amazonie, mais les données de l'INPE montrent que cette tendance s'est brisée en 2012. Les pertes d'arbres ont grimpé de 73% entre 2012 et 2018, ce qui coïncide avec une période de malaise économique.
La dernière saison seulement, près de 2 millions d’acres, une superficie plus grande que Shanghai, ont été éliminés de la plus grande forêt tropicale du monde.

Une analyse effectuée par Global Forest Watch de 2001 à 2015 a montré que la conversion de forêts et de zones arbustives en terres agricoles et minières était l'un des principaux catalyseurs de la perte d'arbres.

Les produits de base sont les principaux moteurs de l'accélération du rythme de la déforestation.

La superficie cultivée en soja en Amazonie a plus que quadruplé au cours des 12 dernières années, représentant 13% de la superficie totale consacrée à la culture du soja au Brésil pour la saison 2017-2018. Cependant, presque toute l’augmentation provient de pâturages convertis en terres agricoles.

Les entreprises d'emballage de viande au Brésil se sont engagées à ne plus s'approvisionner auprès d'éleveurs impliqués dans la déforestation. C'est une tâche difficile étant donné les difficultés de suivi des bovins individuels tout au long de la chaîne d'approvisionnement.

Les efforts de lutte contre les incendies ont été intensifiés ces derniers jours, de même que les ressources disponibles. Le gouvernement brésilien a approuvé le déblocage immédiat de 9,3 millions de dollars, tandis que les dirigeants du G-7 ont engagé 20 millions de dollars.

Des soldats brésiliens déchargent du matériel d'un véhicule près de la forêt amazonienne à Porto Velho, dans l'état de Rondonia. Le président Bolsonaro avait autorisé des opérations militaires dans neuf États pour combattre les incendies.

Peut-être que des célébrités et des politiciens les partageront à la place.

35,6 km³ d'eau nécessaires pour remplir une boite de sardines !

35,6 litres d’eau nécessaires pour produire un demi-litre de Coca-Cola


  Dominique Dewitte   
23 août 2019 


Pour produire une bouteille d’un demi-litre de Coca-Cola, il faut 35 litres d’eau. 80 % sont consacrés à la production de betteraves à sucre, qui fournissent l’ingrédient qui confère à la boisson gazeuse son goût sucré. 19 autres pourcents sont nécessaires à la fabrication de l’emballage, les 1 % restants étant consommés dans le reste de la chaîne d’approvisionnement.

C’est ce qui ressort d’une étude commandée par Coca-Cola elle-même en 2011. Depuis lors, l’entreprise a fait de gros efforts pour réduire sa consommation d’eau. En 2018, la société Atlanta a publié un message sur son site Web indiquant qu’il ne faudrait plus que 1,89 litre d’eau pour produire un litre de soda. Par ailleurs, le groupe affirme avoir investi l’an dernier dans des projets de développement qui ont permis de recycler et d’améliorer 257 milliards de litres d’eau potable, soit presque autant que les 299 milliards de litres que l’entreprise consomme elle-même.

Les recherches effectuées en 2018 sur le site Web The Verge et l’Investigative Fund at the Nation Institute n’ont pas contredit cela. Cependant, il est précisé que seule la production de la boisson gazeuse elle-même est prise en compte ici. La majeure partie de l’eau est utilisée pour la production de sucres, des autres ingrédients et surtout de l’emballage.

Selon l’étude, la production d’une bouteille d’un demi-litre de Coca-Cola nécessite 35,6 litres d’eau, dont seulement 0,4 litre est contenu dans le produit final. Le processus de production nécessite 27,9 litres d’eau, principalement pour la culture de betteraves. Les betteraves sont essentielles à la production de sucre, l’ingrédient principal de chaque bouteille de Coca-Cola. En outre, 7,3 litres d’eau sont utilisés dans la fabrication de bouteilles en plastique et en verre, dans lesquelles la boisson gazeuse est conditionnée.

Selon les chercheurs, Coca-Cola doit réduire d’urgence sa consommation d’eau tout au long de la chaîne d’approvisionnement. Pour les années à venir, l’entreprise aura besoin de quantités massives d’une matière première qui se fait de plus en plus rare.

Coca-Cola produit 200 000 bouteilles en plastique… par minute

Au début de cette année, Coca-Cola a publié pour la première fois des chiffres sur sa consommation de plastique. La société n’a pas révélé l’échelle exacte de sa production de bouteilles. Mais lorsque l’on traduit l’empreinte de l’emballage en bouteilles PET de 500 ml, cela représente environ 108 milliards de bouteilles par an. Soit plus d’un cinquième de la production mondiale de bouteilles en PET d’environ 500 milliards de bouteilles par an. Cela équivaut à 200 000 bouteilles en plastique d’un demi-litre… par minute.

lundi 26 août 2019

Comment l’humanité a vaincu les famines

Aujourd’hui, les famines ont pratiquement disparu en dehors des zones de guerre.


Par Marian L. Tupy.
Un article de HumanProgress.org
26 AOÛT 2019


Les famines ont quasiment disparu en dehors des zones de guerre.

Une alimentation adéquate est une condition fondamentale pour la survie de l’humanité, mais la nourriture a longtemps été rare. La profusion des expressions couramment utilisés, tels que « crier famine », des contes, tels Le Petit Poucet, et des références bibliques, telles les Quatre Cavaliers de l’Apocalypse, la famine tenant compagnie à la peste, à la guerre et à la mort, en donnent une bonne illustration.

Pourtant, la plus grande famine de tous les temps a eu lieu entre 1958 et 1962, lorsque le dirigeant communiste chinois Mao Zedong a eu recours à la force brutale pour collectiviser les terres agricoles de son pays, faisant entre 23 et 55 millions de morts.

UN GRAND BOND EN AVANT PARADOXAL

Le « grand bond en avant » était paradoxal pour deux raisons.

Premièrement, historiquement, les famines étaient davantage la conséquence de mauvaises récoltes provoquées par des sécheresses ou des inondations plutôt que de la violence.

Deuxièmement, la sécurité alimentaire a considérablement augmenté au cours de la seconde moitié du XXe siècle. La consommation alimentaire moyenne, pondérée en fonction de la population mondiale globale, est passée de 2225 calories par personne en 1961 à 2882 calories en 2013. Pour mettre ces chiffres en perspective, le Département de l’agriculture des États-Unis recommande aux hommes adultes actifs de consommer entre 2200 et 2800 calories par jour et modérément et aux femmes actives entre 1800 et 2000 calories par jour.

En Afrique subsaharienne, les disponibilités alimentaires sont passées de 2004 calories en 1961 à 2465 calories en 2013. Autrement dit, la région la plus pauvre du monde a accès à une nourriture à peu près équivalente à celle des Portugais au début des années 1960. En fait, des scientifiques du Centre de recherche sur la santé et la population en Afrique au Kenya estiment que dans quatre des 24 pays africains étudiés, la prévalence de l’obésité chez les femmes des zones urbaines dépassait 20 %. Il variait entre 10 et 19 % dans les 20 autres pays.

LA « RÉVOLUTION VERTE » CONTRE LA FAMINE

Qu’est-ce qui explique l’accès croissant à la nourriture ?

Premièrement, la productivité agricole s’est considérablement améliorée grâce à des méthodes de culture plus scientifiques, à l’accès à des engrais et pesticides abondants et bien améliorés, ainsi qu’à de nouvelles plantes à haut rendement et résistantes aux maladies. Le héros principal de cette histoire était un agronome américain et lauréat du prix Nobel de la paix de 1970, Norman Borlaug.

Au milieu du XXe siècle, Borlaug « a travaillé avec les gouvernements du Mexique, de l’Inde et du Pakistan pour introduire une combinaison de techniques de production agricole modernes et de ses nouvelles variétés de blé à haut rendement. En conséquence, le Mexique est devenu un exportateur net de blé en 1963. Entre 1965 et 1970, les rendements en blé ont presque doublé au Pakistan et en Inde, ce qui a considérablement amélioré la sécurité alimentaire dans le sous-continent. Ces augmentations collectives de rendement ont été qualifiées de « révolution verte » et on attribue souvent à M. Borlaug d’avoir sauvé plus d’un milliard de personnes de la famine. »

LES RAISONS DE LA DISPARITION DES FAMINES

Deuxièmement, le monde s’est beaucoup enrichi et les gens peuvent se permettre d’acheter davantage de nourriture. Le revenu mondial moyen par personne et par jour est passé de 3,7 dollars en 1900 à 35 dollars en 2000 (les deux chiffres sont en dollars US 2018).

Troisièmement, la nourriture est devenue moins chère. L’indice des prix des produits alimentaires, établi par l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO), montre que le prix des produits alimentaires ajusté de l’inflation en 2017 était inférieur à ce qu’il était en 1961. Mais aussi, à plus long terme, la valeur de l’indice des prix des denrées alimentaires Grilli et Yang a été divisée par deux entre 1906 et 2006.

Quatrièmement, l’amélioration des transports et des communications permet aux pays aux récoltes abondantes de vendre ou de donner leurs excédents agricoles aux pays souffrant de pénuries alimentaires.

Cinquièmement, la diffusion de la démocratie et une presse libre garantissent une plus grande responsabilité des gouvernements et la dénonciation des violations des droits de l’homme. Comme le notait Amartya Sen, lauréat du prix Nobel de science économique en 1998, « aucune famine n’a eu lieu dans l’histoire du monde dans une démocratie qui fonctionne… (parce que les gouvernements démocratiques) doivent remporter des élections et faire l’objet de critiques publiques, et sont fortement incités à prendre des mesures pour éviter les famines et autres catastrophes. »

Le biologiste Paul Ehrlich de l’Université de Stanford, dans son livre de 1968 intitulé The Population Bomb, a écrit : « La bataille pour nourrir toute l’humanité est terminée. Dans les années 1970, des centaines de millions de personnes mourront de faim en dépit des programmes d’urgence actuellement mis en œuvre. » Cette année-là, dans 34 pays sur 152 étudiés, les disponibilités alimentaires étaient inférieures à 2000 calories par personne et par jour. C’était le cas de seulement deux des 173 pays étudiés en 2013. Aujourd’hui, les famines ont pratiquement disparu en dehors des zones de guerre.
Traduction pour Contrepoints par Gérard-Michel Thermeau de How Humanity Won the War on Famine.

samedi 24 août 2019

Climat : l’incroyable saga des températures (3) La courbe en crosse de hockey

La célèbre courbe en forme de crosse de hockey a fait paniquer l’humanité.
Troisième volet de notre saga sur les relevés de température.


Par Michel Negynas.
24 AOÛT 2019


Personne ne conteste que nous vivons un réchauffement au moins depuis le milieu du XIXe siècle. Mais avant, y avait il aussi des fluctuations du climat ? Cette question est importante, car elle aussi pourrait relativiser notre situation actuelle.

Dans le premier rapport du GIEC, publié en 1991, on peut trouver ces courbes :


(AR1, Observed climate change, p 202)

C’était l’évolution à peu près admise par tous les historiens de l’évolution de la température mondiale. Le GIEC ajoute en commentaires :

“Ainsi une part du réchauffement global depuis 1850 pourrait être un rétablissement après le Petit Âge glaciaire, plutôt que le résultat direct des activités humaines. Aussi c’est important de reconnaître que les variations naturelles du climat sont appréciables, et moduleront les changements futurs induits par l’Homme, quels qu’ils soient. »

Mais en 1998, une publication fit l’effet d’une bombe.

LA SAGA « MANNIENNE »

Un obscur doctorant de l’université de Yale, Michael Mann, sortit une courbe de reconstruction des températures, d’abord jusqu’en 1400, puis jusqu’en l’an 1000, à partir de l’étude des cernes des arbres.
C’était affolant : les températures antérieures à 1900 étaient plates, un peu descendantes, et puis montaient à la verticale. Cette courbe donna véritablement le coup d’envoi à l’hystérie climatique.

En définitive, elle apparaît ainsi dans le rapport du GIEC de 2001, non sans avoir provoqué un violent débat interne, compte tenu de son allure surprenante pour beaucoup d’experts :

Et elle prit le nom de « crosse de hockey » pour la postérité.
C’était quand même bizarre qu’en dix ans et une étude, on effaçait 2000 ans d’histoire : le passage des Alpes par les éléphants d’Hannibal, les invasions barbares, a contrario la période prospère des cathédrales, le catastrophique XVIIe siècle, les tableaux de Brueghel, le patinage sur les canaux hollandais, la Tamise gelée de Dickens… Intrigués, deux ingénieurs canadiens, Ross McIntrick et Stephen McIntyre se penchèrent sur le sujet. Il apparut très vite que Mann avait fait une erreur méthodologique de débutant. Pour prouver cela, ils appliquèrent sa méthode à des courbes aléatoires ; dans la majorité des cas, ils obtinrent des hockey sticks. Ils publièrent en 2003, malgré le refus de Mann de dévoiler ses données (tout est accessible sur le site climate audit de McIntyre).

Leurs craintes furent confirmées officiellement en 2006 par une commission d’experts conduite par E. Wegman, président de l’association américaine des statisticiens, dont le rapport avait été commandé par le Comité de l’Énergie de la Chambre américaine.

Il s’en est suivi une série de controverses scientifiques confuses, allant jusqu’à des démêlés judiciaires, Michael Mann tombant carrément dans le complotisme.  

Mais en 2009, la découverte d’emails du Climategate montra l’étendue du désastre : les courbes publiées par le GIEC étaient issues de méthodes pour le moins douteuses, qui, dans n’importe quel autre domaine de la science, auraient discrédité l’institution.

Un des emails de Mann à ses collègues précisait qu’il avait trouvé une « astuce » pour « cacher la baisse » (hide the decline). Il faisait référence à une de ses reconstructions qui malencontreusement montrait une chute des températures au XXe siècle. Il a opportunément remplacé les données gênantes par des données issues de thermomètres, et non plus des cernes des arbres, à partir du « déclin », mélangeant ainsi choux et carottes sur la même courbe, et sans le dire clairement dans le texte du GIEC.
 (Graph from Richard Muller)

RETOUR À LA RAISON

Le Hockey Stick a maintenant disparu des rapports du GIEC, qui noie le poisson sous une avalanche de spaghettis, et sans intervalles d’incertitudes, comme le montrent ces figures tirées du 5e rapport sorti en 2014. Et les études de Mann ne sont plus citées :
Malgré l’évidence, beaucoup de présentations défendent encore les courbes de Mann. Et Wikipedia présente l’affaire d’une manière très « orientée »… Récemment, on a exhumé l’actualisation d’une étude montrant que le passé n’était pas si chaud, et pas partout, qui a été aussitôt  très controversée… et démolie par McIntyre sur son site.

En réponse également à cette étude, le géologue Sébastien Luning a lancé un projet collaboratif sur les températures à l’époque médiévale dans le monde, afin de recenser toutes les études sur le sujet (1200 à ce jour). Le résultat donne une carte interactive montrant les études et les lieux : rouge c’était plus chaud que maintenant, jaune plus sec, et vert plus humide.
Ce combat pour vouloir absolument montrer que le réchauffement actuel est inhabituel est incompréhensible, tant on peut amener des arguments à opposer.

L’étude des glaciers, par exemple : comme les glaciers reculent actuellement, ils rejettent des débris anciens qui permettent des hypothèses sur leur état à différentes époques, en particulier des restes organiques, voire des arbres qu’on peut dater. Voir : The Holocene 16,5 (2006) pp. 697 704: Multicentury glacier fluctuations in the Swiss Alps during the Holocene Ulrich E. Joerin, Thomas F. Stocker and Christian Schluechter

D’autant que cela n’infirme pas pour autant la théorie de l’effet de serre. Mais il est vrai cependant qu’admettre qu’il existe des fluctuations naturelles, parfois même rapides, rend impossible de valider les calculs de l’effet du seul gaz carbonique.

Cette extraordinaire « mannian saga » a fait l’objet de plusieurs livres comme : “The Hockey Stick Illusion: Climategate and the Corruption of Science Paperback – March, 2010 by A.W. Montford “

Michael Mann, lui, a écrit :

« The Hockey Stick and the Climate Wars : Dispatches from the Front Lines ».

Le titre même de son ouvrage montre son état d’esprit : c’est un soldat en guerre, ce n’est plus un scientifique. 

Demain, dans le dernier bulletin, nous verrons ce qu’on peut tirer comme conclusion de cet imbroglio autour des températures mondiales.


Relisez les épisodes 1 et 2 de la série « Climat : l’incroyable saga des températures ».

vendredi 23 août 2019

Climat : l’incroyable saga des températures (2)

Vous reprendrez bien encore une petite analyse des relevés de températures ? (2e partie)


Par Michel Negynas.
23 AOÛT 2019


On a vu dans le précédent billet* que l’indicateur que s’est choisi l’humanité pour sceller son destin (l’anomalie de température globale) n’est pas vraiment scientifique, difficile à quantifier, et pas vraiment utile pour réagir à des évolutions du climat.


Nous allons examiner maintenant les problèmes posés par l’établissement des séries historiques recouvrant la période dite industrielle, c’est-à-dire, selon les auteurs, depuis 1850 ou 1880.

POURQUOI TANT D’IMPORTANCE DONNÉE AU PASSÉ ?

La démarche scientifique habituelle est, si l’on trouve une corrélation entre deux variables, de bâtir une théorie qui explique une relation de cause à effet, ensuite, de modéliser le processus pour quantifier la relation, et de vérifier si le modèle est prédictif, en le soumettant à l’épreuve des faits.

Dans le cas de l’effet de serre, rien ne se passe comme cela. On ne peut vérifier le modèle pour l’instant car il faut attendre des dizaines d’années… Et il n’y a pas de corrélation, en tout cas pour un scientifique honnête.
On pourrait objecter que les deux courbes montent… Mais ce serait une entourloupe bien connue des statisticiens ; il suffit de lisser suffisamment deux courbes n’ayant rien en commun pour trouver, à un moment donné, qu’elles sont corrélées.

Joanne Nova a trouvé une meilleure corrélation :

On ne peut donc passer sous silence que même si l’effet du gaz carbonique produit du réchauffement, il se passe des choses supplémentaires, non expliquées par l’effet de serre, sur cette série de température. Elle devient donc un enjeu important.

Or, retracer l’évolution des températures est évidemment un exercice de plus en plus risqué lorsqu’on recule de plus en plus dans le passé car on ne sait pas si les outils et les méthodes sont restés les mêmes (on est même certains du contraire). 

LA RARETÉ DES MESURES DANS LE PASSÉ

La NASA a là encore réalisé ce schéma, de l’état de l’art en 1880 :
En 1880, seulement 174 stations ont été retenues pour établir la température moyenne : quasiment rien sur les océans, sur les pôles, soit au moins 80 % de la surface… On peut à la limite définir une moyenne européenne, nord-américaine, mais une moyenne mondiale est pure spéculation.

CHANGEMENTS DE MÉTHODE ET D’OUTILS DE MESURE

Pour beaucoup de stations, on est passé du thermomètre à alcool aux sondes électroniques. Mais d’autres changements, pas toujours documentés, sont plus sournois et peuvent produire des écarts allant jusqu’à 0,5 degré : changement de peinture ou de dimension des « cabanes » abritant le thermomètre… 

Mais surtout, il y a eu des changements de méthode de prélèvement. Autrefois, on prélevait à heure fixe, c’était manuel, une fois à l’heure supposée la plus froide, une fois à celle la plus chaude, mais ça ne collait pas bien avec, par exemple, les décalages saisonniers. Ensuite on a utilisé des thermomètres à mini/maxi. Mais la moyenne de deux mesures est-elle représentative de la journée ? Maintenant, on dispose de relevés en continu qui permettent de faire une vraie moyenne….

CHANGEMENT DE LIEU DE LA STATION ET INTERPOLATION POUR LE VOISINAGE

Certaines stations ont été déplacées sans qu’on change leur dénomination. Si on a connaissance de cela, on peut essayer de calculer l’écart produit. Il se calcule généralement par interpolation des stations les plus proches… mais tient-on compte du relief, de la rose des vents… ? Pour faire cela correctement, il faudrait toute une étude. Les organismes en charge de la collecte n’en ont pas les moyens. Et surtout, certains maillages (voir celui de la France) sont trop lâches pour être utilisables.

Une évolution significative a été opérée un peu avant 1990 : une réduction drastique du nombre de stations utilisées. (source : NASA GISS, diagramme de R McIntrick). Il est difficile de vérifier si les méthodes employées pour garder une représentativité inchangée (souvent là encore à base d’interpolations) sont correctes. Cette période correspond d’ailleurs justement à un « réchauffement » très rapide. Et depuis, le nombre de stations a été ré-augmenté… 
MODIFICATION DE L’ENVIRONNEMENT DES STATIONS

Mais les changements les plus significatifs sont certainement les changements de l’environnement des stations de mesure qui en affectent un grand nombre, comme l’a montré l’étude d’Antony Watts, aux États-Unis, déjà citée.  

Le processus est assez classique : une station météo est installée en bordure de la piste en herbe d’un aérodrome, pour les exigences de l’aviation, assez loin de la ville. L’aéroport se développe, on bétonne, la ville se rapproche… on ne mesure plus du tout la même chose. Et c’est plus chaud.

L’EFFET D’ÎLOT URBAIN

Ce sujet est d’une grande importance et a fait l’objet d’intenses controverses, qui ne sont pas closes à ce jour. En effet, il pourrait constituer un biais de mesure très important.

Il est basé sur la constatation que tout un chacun peut faire en venant de la campagne et en pénétrant en ville : il fait plus chaud au centre (à Paris, 2 degrés d’écart ne sont pas exceptionnels). Dès lors, comme beaucoup de stations météo sont près des villes, il faut corriger cet effet. Le GIEC et les organismes officiels ont montré que cela n’excédait pas 0,01 degré de réchauffement tous les dix ans. Mais de nombreuses études montrent un biais bien plus important.

Le phénomène en lui-même est simple : le béton et l’asphalte des villes absorbent la chaleur du soleil davantage que la campagne, et la nuit ralentit le refroidissement. Toute la question est de savoir si cet effet est très limité ou s’étend sur une surface suffisamment étendue pour y affecter de nombreuses stations météo.

Une étude de deux chercheurs de la Royale Meteorology Society me semble assez robuste. Elle estime que l’effet d’îlot urbain en Angleterre pourrait aller jusqu’à 1,7 degré, concentré sur la température journalière minimum, et capable d’influencer la moyenne.

Un papier de Ross McIntrick, un statisticien qui a joué un rôle important de démystificateur sur d’autres sujets climatiques, montre que l’effet n’est pas négligeable sur la moyenne mondiale du fait d’un grand nombre de stations sous influence des villes et improprement considérées comme « rurales », ce que conteste le GIEC.

L’AJUSTEMENT ET L’HOMOGÉNÉISATION DES TEMPÉRATURES

Tous les biais cités ici sont connus et admis par les organismes en charge de compiler les séries de température. Mais les données sont très nombreuses, et les équipes ont peu de moyens. Pas question d’aller voir ce qui s’est passé depuis plus de 100 ans station par station… On a donc créé des algorithmes d’ajustement automatique, basés sur des analyses de l’évolution du signal (discontinuité, dérive lente détectée comme « anormale »…).

Les méthodes sont très mal documentées, les données brutes sont parfois déjà partiellement ajustées. Par ailleurs, lorsqu’on détecte une correction à faire, généralement on ne corrige pas la valeur mesurée mais toutes les valeurs du passé. Tout cela fait qu’en pratique personne ne peut plus auditer ces processus.

QUELQUES « MOMENTS CLÉS » ET EXEMPLES SIGNIFICATIFS

Les auteurs des courbes de température affirment qu’il y a autant de corrections « chaudes » que froides » en moyenne. Force est de constater qu’on tombe sur des exemples troublants.
En 2000, une modification des algorithmes de NOAA/NASA « effaça » les records de température des années 1930 aux USA, pour les replacer en 1998. 

Cela cadre mal avec l’indicateur des vagues de chaleur de l’US EPA (agence pour l’environnement américaine) :
En France, on homogénéise aussi. Un exemple est donné par Météo France elle-même, pour montrer l’efficacité de son processus :
À Pau, un refroidissement de 1,19 degré devient un réchauffement de 0,67 degré… Pourquoi pas ? Mais cela mériterait peut-être plus d’explications que l’application automatique d’un algorithme… Météo France a raison d’être satisfaite de son algorithme : il chauffe, donc c’est bon !

En fait, les données mondiales sont corrigées en permanence ; NASA/NOAA est d’ailleurs transparente là-dessus, comme l’atteste ce tableau tiré de son site :
Par exemple, l’anomalie de 2005, initialement chiffrée à 1,08 degré F, a été corrigée à 1,12 en 2010, 1,15 en 2011 et 1,17 en 2012…. 

LE HIATUS

Tout allait pour le mieux ; on réussissait à montrer que les données satellites et les donnes terrestres étaient à peu près cohérentes. Mais catastrophe ! À partir des années 2000, les températures n’augmentaient plus !    

Décidément, cette saga des températures fait aussi bien que House of cards…

La suite au prochain épisode…