le 23 octobre 2023
Après les revers électoraux des écologistes, en Allemagne, en Espagne et maintenant en Suisse il est important de continuer à dénoncer les mensonges des autorités politiques qui reprennent la fausse science (« consensuelle », voir en fin d’article) de l’IPCC (GIEC) une organisation avant tout politique et non scientifique. Je continuerai donc à dénoncer cette gigantesque imposture qui a déjà coûté aux contribuables français des dizaines de milliards d’euros, certains analystes mentionnent plus de 130 milliards d’investissements en pure perte. L’installation de moulins à vent sur le sol français était totalement inutile puisque ce pays est une exception mondiale avec son parc électro-nucléaire. Quelle réduction des émissions de carbone ont permis ces moulins à vent ? Rien, zéro, mais il fallait obéir à Bruxelles et se soumettre à la pression du lobby « vert » qui a littéralement « infecté » les instances politiques européennes. À ce sujet cette idéologie peut être classée comme terroriste, et je pèse ce mot, car elle utilise la terreur pour faire plier les gouvernements qui, par leurs décisions, méprisent tout simplement les citoyens eux-mêmes manipulés par les médias subventionnés par ces mêmes gouvernements. Donc je continuerai à faire part de mon opinion sur ce blog en proposant des articles documentés et s’appuyant sur de la vraie science et non de la politique teintée d’écologisme.
Ce grand oublié du bilan carbone du système Terre-Océans-Atmosphère est l’érosion pluviale des massifs montagneux récents à l’échelle géologique comme la Cordillère des Andes, le massif de l’Himalaya, l’arc alpin en Europe, le Caucase, les Rocheuses, … Par un mécanisme connu des géologues les montagnes sont érodées par la pluie qui se transforme en neige puis en glace selon les altitudes, les glaciers accélérant mécaniquement ce processus, l’érosion, donc, libère le gaz carbonique emprisonné sous forme de cristaux dans les roches. Il n’y a pas que ce gaz qui soit libéré lors de ce processus mais également du méthane et … de l’hydrogène et de l’hélium. Les roches dites « mères » sont également soumises, ou l’ont été par le passé, à ces processus d’érosion et la fracturation hydraulique bien connue des Américains pour extraire gaz naturel et pétrole n’est pas différente de l’érosion fluviale car le traitement du méthane obtenu par cette technique consiste en particulier à éliminer ce gaz carbonique libéré lors de cette fracturation hydraulique … Ça laisse rêveur car personne n’en parle. L’étude réalisée conjointement à l’Université d’Oxford et de Durham et l’University College en Grande-Bretagne et l’Université Savoie Mont-Blanc à Chambéry en France montre que dans les tout premiers mètres des sols sédimentaires et schisteux le taux de carbone organique et minéral est de l’ordre de 1490 giga tonnes pour le seul premier mètre de sol. Selon la localisation de ces sols cette teneur libérée par les phénomènes d’érosion pluviale cette teneur varie entre 980 et 2580 giga tonnes, essentiellement de gaz carbonique à la suite de processus d’oxydation complexes.
Les sédiments marins dont on envisage l’exploitation pour récupérer des lanthanides (« terres rares ») afin de généraliser les énergies « vertes » sont encore plus riches en carbone organique lithique puisque ces teneurs atteignent 2322+/-75 giga tonnes, de quoi donner le vertige aux aficionados des techniques énergétiques « vertes ». Le processus global décrit dans l’article cité en référence (accès libre https://doi.org/10.1038/s41586-023-06581-9 ) est complexe et fait intervenir la pluie, donc les nuages, le relief montagneux, les plaines sédimentaires, les rivières et les océans comme le montre cette illustration :
Dans cette illustration la partie a illustre le cycle du carbone inorganique quand il est considéré dans l’équilibre global entre le sol solide et le gaz carbonique du point de vue de l’érosion pluviale et du rinçage des silicates. La partie b est une description du rôle du carbone organique minéral ( comprenez : des roches) dans le cycle du carbone géologique global. Cette illustration tient compte du très important flux de carbone organique lithique (OCpetro) libéré par oxydation. Dans ces conditions ce processus biologique, chimique et physique de libération du carbone organique lithique contrôle profondément la stabilité comme la variabilité du climat. Il s’agit d’une nouvelle information qui avait été mentionnée auparavant par de nombreux géologues. Cependant les travaux de ces derniers n’ont jamais été pris en considération par les tenants « statutaires » de la science du climat que constitue cette assemblée de hauts fonctionnaires des Nations-Unies car ils viennent contredire la fausse science consensuelle relative au climat. Comme le déclarait il y a quelques jours le Professeur émérite François Gervais, géophysicien de son métier, sur TVL ou Sud-Radio, les deux seuls médias français que je supporte encore de regarder, il n’y a pas de science consensuelle, une science consensuelle ne peut pas exister par essence car par définition la science est une remise en question permanente au gré de l’évolution des techniques ou de découvertes souvent fortuites. L’étude dont il est fait mention dans cet article fait appel à des techniques encore inconnues il y a 20 ans comme l’ICP-MS pour mesurer la teneur en rhénium dans les sédiments formés par l’érosion fluviale des massifs montagneux mentionnés ci-dessus. L’ICP-MS est une spectrographie de masse appliquée à un plasma d’ions obtenus par chauffage de l’échantillon à analyser à l’aide d’une boucle d’induction. Cette approche technique permet une sensibilité accrue de plusieurs ordres de grandeur, la teneur moyenne en rhénium étant la plus rare dans la croute terrestre, de l’ordre d’une demi-partie partie par milliard en poids. Dans les calculs réalisés et décrit dans cette publication le rhénium sert de référence pour évaluer le processus d’oxydation du carbone organique lithique. Cette étude n’aurait pas pu être réalisée il y a seulement vingt ans : la science consensuelle est donc une vue de l’esprit dérangé des fonctionnaires de l’ IPCC …
Pour la petite histoire le rhénium est un métal hautement stratégique car il est utilisé pour la fabrication des ailettes des moteurs d’avions militaires et des turbines à gaz naturel et des compresseurs de moteurs de fusées dans l’industrie aérospatiale d’où son prix qui talonne celui de l’or. Le principal producteur de rhénium est le Chili qui est un sous-produit des mines de cuivre de ce pays ( https://strategicmetalsinvest.com/rhenium-prices/ ).
Le 23 octobre 2023 à 22 h 58 min, Flying Dutchman a dit :
RépondreSupprimerPetite parenthèse en passant :
– pertes d’EDF liées à la loi NOME/Arenh = 64 milliards € (revente d’électricité à perte dans le cadre du marché européen de l’énergie)
– pertes EDF liées aux retards sur le chantier EPR de Flamanville : 19 (milliards €) – 3.3 (budget initial) = environ 15 milliards € dont une partie est imputable aux actions néfastes des écologistes
– pertes EPR Finlande = ? environ 10 milliards € pour AREVA et l’état français qui a mis la main au portefeuille
– Contribution au Service Public de l’Électricité (CSPE) : taxe payée par les clients d’EDF qui sert à financer la « transition énergétique » (éoliennes et panneaux photovoltaïques) = 10 milliards € par an (chiffre de 2019)
– Coûts cumulés pour les Français de la CSPE mise en place depuis 2004 = ? mais > 100 milliards € à la louche
– coût de la fermeture du réacteur RNR Superphénix à Creys-Malville = ? > 15 milliards € à la louche
– coût démantèlement de la centrale de Fessenheim = ? mais > 10 milliards € à la louche
– Coût de la renationalisation d’EDF = 12 milliards selon Bercy en 2023
– coût cumulé des sous-investissements d’EDF décidés par l’Elysée et qui ont précipité le départ de l’ex-PDG L.B. Levy = ?
Total : environ 250 à 300 milliards € serait une bonne base estimative…de quoi réparer l’hôpital public, l’armée, l’éducation nationale et financer la réindustrialisation de la France.
Conclusion : EDF était un fleuron industriel mondial à la point du progrès et très largement bénéficiaire avant le déploiement de l’euro.
En 2023, c’est une entreprise en faillite virtuelle à cause de la politique lunaire mise en place pour une « transition énergétique » qui coûte « un pognon de dingue » et qui ne produit aucun résultat tangible sur la décarbonation de l’atmosphère.
Trois grandes causes : le pouvoir de nuisance des écologistes (notamment allemands) + l’incompétence de la classe politique française + l’incompétence de la Commission de Bruxelles. L’écologie politique coûte une fortune, les Français doivent ouvrir les yeux et devraient s’unir pour faire une « class-action » et traduire en justice les principaux responsables de cette gabegie financière totalement hallucinante.
https://jacqueshenry.wordpress.com/2023/10/23/le-bilan-carbone-du-systeme-terre-oceans-atmosphere-revisite/
Le Royaume-Uni abandonne-t-il l’énergie solaire ?
RépondreSupprimerPAR TYLER DURDEN
MARDI 24 OCTOBRE 2023 - 09h30
Rédigé par Felicity Bradstock via OilPrice.com,
Les changements de politique du Premier ministre Rishi Sunak, notamment les retards dans la transition vers les véhicules électriques et les restrictions sur l'énergie solaire, ont suscité des inquiétudes quant à l'engagement du Royaume-Uni en faveur de l'action climatique.
Les groupes environnementaux affirment que les reculs du gouvernement pourraient entraîner des coûts plus élevés à long terme et menacer le leadership mondial du Royaume-Uni dans la lutte contre le changement climatique.
Même si les importations d'énergie étrangère peuvent offrir une source d'énergie verte, les obstacles au développement des énergies renouvelables au niveau national pourraient avoir un impact sur les coûts énergétiques et entraver les engagements climatiques du Royaume-Uni.
Le gouvernement conservateur du Royaume-Uni a été accusé d'être revenu sur plusieurs de ses engagements en matière de climat au cours des derniers mois et l'industrie de l'énergie solaire est la dernière à être touchée. Le Premier ministre Rishi Sunak suit les traces de son prédécesseur en imposant des restrictions sur les nouveaux développements d’énergie solaire au Royaume-Uni, ce qui pourrait conduire le pays à dépendre des importations d’énergie étrangère pour répondre à sa demande croissante d’énergies renouvelables et assurer sa sécurité énergétique.
En septembre, Sunak a confirmé le recul massif de plusieurs politiques climatiques du Royaume-Uni lors d’un discours. Cela s’est produit après la fuite d’un plan gouvernemental sur l’action climatique actualisée.
Le gouvernement conservateur a adopté une loi en 2019 visant à atteindre zéro émission nette de carbone d’ici 2050. Sunak assure au public que cet objectif n’a pas changé, mais que le chemin pour y parvenir a changé. Il a déclaré que le gouvernement « faciliterait la transition vers les véhicules électriques », en décalant la date d'interdiction de la vente de voitures neuves à essence et diesel de 2030 à 2035. Il a également déclaré qu'il y aurait « plus de temps pour passer aux pompes à chaleur, » ce qui signifie un retard dans l’élimination progressive des chaudières à gaz. Il a également exclu l'introduction d'une taxe visant à décourager l'avion et a annoncé que les projets de nouveaux programmes de recyclage seraient réexaminés.
Les climatologues et les experts en environnement ont déclaré en réponse au discours de Sunak que cette décision coûterait plus cher aux consommateurs à long terme et pourrait menacer le leadership mondial du Royaume-Uni en matière de changement climatique. Les groupes environnementaux sont susceptibles de contester la décision d’édulcorer les engagements climatiques devant les tribunaux, au motif que le gouvernement a l’obligation légale de présenter en détail comment il entend atteindre son objectif de zéro émission nette d’ici 2050, avec des budgets carbone clairs pour différents secteurs. En réponse aux critiques, Sunak a déclaré que des retards dans la promulgation des engagements verts pourraient aider les ménages britanniques à économiser des milliers de livres. Cependant, cela semble négliger les effets potentiels du changement climatique en raison du retard.
La dernière source d’énergie propre attaquée par le gouvernement conservateur est l’énergie solaire. Ce mois-ci, Sunak a annoncé son intention de restreindre l'installation de panneaux solaires sur les terres agricoles du Royaume-Uni. Des plans visant à bloquer les projets d’énergie solaire ont été initialement proposés sous la direction de Liz Truss, et des sources médiatiques suggèrent que Sunak et la secrétaire à l’Environnement, Thérèse Coffey, ont relancé les plans visant à restreindre le déploiement des panneaux solaires.
RépondreSupprimerGreg Smith, député de Buckingham, qui s'est longtemps opposé à l'installation de panneaux solaires sur les terres agricoles, a rédigé l'amendement au Cadre politique national de planification (NPPF). Il a déclaré : « Il s'agit d'une protection claire et directe que les autorités de planification de tout le pays peuvent utiliser pour dire que ce développement sur ces terres agricoles ne va pas nuire à notre sécurité alimentaire dans cette région, ou que celui-ci ici l'est, et donc utiliser c’est une bonne raison pour refuser les candidatures. Coffey a déclaré que le NPPF révisé entrerait en vigueur plus tard cette année. Les experts en environnement estiment qu’augmenter la capacité solaire du Royaume-Uni contribuera à réduire les effets du changement climatique, qui autrement seraient extrêmement préjudiciables à l’agriculture britannique. Parallèlement, de nombreux agriculteurs estiment que la sécurité alimentaire et énergétique peuvent aller de pair grâce à une utilisation correcte des terres agricoles.
Alethea Warrington, chargée de campagne pour l’association caritative pour le climat Possible, a expliqué : « L’idée selon laquelle l’énergie solaire pourrait interférer avec la sécurité alimentaire du Royaume-Uni est totalement déconnectée de la réalité. L'énergie solaire a généré plus de 8 pour cent de toute notre électricité ce printemps, mais occupe moins de terrain que les terrains de golf. Cela fait partie d’une série de politiques énergétiques catastrophiques de la part du gouvernement, notamment en ne parvenant pas à débloquer correctement l’énergie éolienne terrestre, en ne parvenant pas à obtenir de nouveaux éolien offshore et en essayant de poursuivre de nouveaux forages pétroliers incroyablement dangereux.
Bien que le Royaume-Uni soit l’un des leaders mondiaux en matière de production éolienne, il prend du retard dans ses projets de développement de sa capacité d’énergie solaire. En septembre, un article publié dans le Daily Telegraph indiquait que le Royaume-Uni prévoyait d'importer de l'électricité provenant de parcs solaires et d'éoliennes égyptiens. Cela nécessitera l’installation de câbles sous-marins reliant l’Égypte à l’Europe. Rystad, la société en charge du projet, a déclaré : « La demande européenne en électricité à faible émission de carbone devrait croître considérablement au cours des trois prochaines années. Construire des infrastructures en Europe ne suffira peut-être jamais, nous devons donc nous tourner vers d’autres sources.»
Même si les sources d’énergie étrangères pourraient fournir l’énergie verte dont le Royaume-Uni a besoin pour soutenir une transition verte, il est difficile de négliger les obstacles que Sunak met en place pour développer des sources d’énergie propres locales. L'industrie de l'énergie solaire n'est que le dernier secteur des énergies renouvelables à être frappé par des restrictions de la part du gouvernement conservateur, une décision qui devrait entraîner une dépendance à plus long terme aux combustibles fossiles, augmenter les coûts de l'énergie et conduire le Royaume-Uni à ne pas tenir ses engagements en matière de climat. .
RépondreSupprimerhttps://www.zerohedge.com/political/uk-giving-solar-power
Les centrales à charbon allemandes pourraient devoir rester en veille plus longtemps que prévu
RépondreSupprimerPAR TYLER DURDEN
MARDI 24 OCTOBRE 2023 - 08H00
Rédigé par Tsvetana Paraskova via OilPrice.com,
Le gouvernement allemand envisage de prolonger la période pendant laquelle les anciennes centrales électriques au charbon devraient rester en veille pour des secours d'urgence au-delà de la date limite actuellement prévue au printemps 2024, a rapporté ce week-end le quotidien économique allemand Handelsblatt, citant une porte-parole. pour le ministère de l'économie.
Sans gaz russe, la crise énergétique et gazière de l'année dernière en Allemagne et en Europe a tenu les services publics et les gouvernements en haleine et prêts à mettre en veille les centrales électriques au charbon pendant les jours d'hiver les plus froids pour assurer la sécurité de l'électricité. fournir.
Plus tôt ce mois-ci, le gouvernement allemand a annoncé qu’il remettrait en service plusieurs unités alimentées au charbon pour cet hiver afin de tenter d’économiser le gaz naturel et d’éviter les pénuries d’électricité.
Plusieurs blocs au charbon exploités par RWE et LEAG dans leurs centrales électriques de Niederaußem, Neurath et Jaenschwalde seront temporairement réactivés jusqu'en mars 2024 par mesure de précaution afin de garantir l'approvisionnement en électricité au cours de l'hiver prochain, a déclaré le ministère de l'Économie et de l'Action climatique, faisant référence à une décision du gouvernement de remettre en service les unités alimentées au charbon.
Ces unités au charbon étaient déjà opérationnelles au cours de l’hiver 2022/2023, lorsque l’Allemagne a été choquée par un approvisionnement en gaz considérablement réduit avec la fin des livraisons par gazoducs russes. Les capacités de secours au charbon ont été mises en stand-by cet été jusqu'à ce que le gouvernement décide de les réactiver pour l'hiver prochain.
Le gouvernement allemand envisage désormais de prolonger la période de stand-by au-delà du printemps 2024 pour éviter les pénuries d’énergie, selon la source du Handelsblatt.
Le gouvernement doit prendre une décision rapidement car les services publics doivent se préparer à l'exploitation potentielle de centrales au charbon plus longtemps que prévu, y compris les préparatifs pour l'approvisionnement en charbon et la planification de systèmes énergétiques stables, a déclaré un porte-parole d'Uniper au Handelsblatt.
Depuis ce mois, 11 centrales électriques au charbon d'une capacité totale de 6,2 gigawatts (GW) fournissent de l'électricité supplémentaire au réseau allemand.
https://www.zerohedge.com/energy/german-coal-plants-may-have-remain-standby-longer-planned
Sans davantage de centrales nucléaires, les objectifs « verts » mondiaux pour 2050 sont menacés, selon l'AIEA
RépondreSupprimerPAR TYLER DURDEN
LUNDI 23 OCTOBRE 2023 - 19H00
La Semaine internationale de l'énergie de Singapour (SIEW) débute aujourd'hui. Parmi les participants figurent de hauts responsables, des décideurs politiques et des experts du secteur de l’énergie. L’objectif de SIEW est de promouvoir une production d’énergie fiable et durable tout en promouvant la concurrence sur les marchés.
Le journaliste de Bloomberg, Stephen Stapczynski, travaille au SIEW à Singapour. Il a publié une vidéo sur X de Mikhaïl Chudakov, directeur général adjoint de l'Agence internationale de l'énergie atomique, s'adressant à un public sur le besoin désespéré de davantage de réacteurs nucléaires dans le monde ou sur le risque de ne pas atteindre zéro émission nette d'ici 2050.
Chudakov a déclaré que le monde devait construire 20 réacteurs ou plus par an au lieu du rythme actuel de 3 à 4. Son message était clair : le monde doit accélérer l'énergie nucléaire pour atteindre ses objectifs verts.
Le message de Chudakov sur l'énergie nucléaire soutenant la transition énergétique propre est celui que nous avons présenté à nos lecteurs il y a près de trois ans, comme le souligne notre article « Est-ce le début du prochain engouement ESG », qui s'avère exact.
Au moment de notre recommandation initiale, la plupart des actions d’uranium se négociaient à une fraction de leur prix actuel.
- voir graph sur site -
L'énergie nucléaire est la seule source de production d'énergie « verte » à la demande qui peut soutenir le réseau électrique mondial dans ses efforts de décarbonisation, tandis que les gouvernements accélèrent « l'électrification » de tout.
https://www.zerohedge.com/commodities/global-2050-green-goals-risk-without-more-nuclear-power-plants-iaea-says
Énergie nucléaire : le triple don !
RépondreSupprimerTrois véritables miracles de la nature permettent au génie humain de maîtriser l’énergie nucléaire pour produire durablement de l’électricité en abondance. Sans cette triple particularité enfouie au plus profond de la matière, l’énergie nucléaire ne serait contrôlable pour produire de la chaleur et de l’électricité.
Par Michel Gay
le 24 octobre 2023 à 5h00
L’U235 représente actuellement 0,7 % de l’uranium naturel
Le premier miracle
L'uranium 235 (U235) est le seul élément « fissile » (qui peut fissionner, se casser) naturel restant sur Terre après l'explosion de la supernova qui a donné naissance au système solaire il y a plusieurs milliards d’années. Tous les autres éléments ayant cette propriété ont disparu de la Terre depuis leur création.
Lorsqu’il est percuté par un neutron, le noyau de son atome (qui contient 235 protons et neutrons), il se casse en deux ou trois « morceaux » en libérant de l’énergie.
L’U235 représente actuellement 0,7 % de l’uranium naturel (abondant sur terre) contenant 99,3% d'un autre uranium légèrement différent : l’uranium 238 (U238). Ce dernier n'est pas fissile mais « fertile » car il peut devenir fissile en absorbant des neutrons au cours des réactions nucléaires.
Répétons-le, c’est le seul élément naturel qui permet de tirer parti de la fantastique réserve d’énergie contenue dans le cœur de la matière.
Sans l’U235, sans cette unique « allumette nucléaire initiale » naturelle encore disponible sur Terre aujourd’hui l’exploitation de l'énergie nucléaire ne serait pas possible car les autres éléments fissiles « artificiels » sont créés à initialement partir de l’U235.
Le deuxième miracle
Lorsque le noyau de l’atome d’U235 se casse (c’est la fission), il libère lui-même plusieurs neutrons (en général 2 ou 3) qui vont aller fissionner d’autres noyaux fissiles, qui eux-mêmes vont produire de l’énergie et d’autres neutrons. Cette réaction en cascade « d’éclatements » successifs est appelée « réaction en chaîne ».
Si ce noyau d’U235 n’émettait pas lui-même au moins deux neutrons par éclatement, l’exploitation du nucléaire (fondée sur cette réaction en chaîne) ne serait pas possible.
RépondreSupprimerMais les réactions en chaîne dans la matière se produisent à une vitesse vertigineuse. Ce rythme fulgurant de multiplication des neutrons est recherché, et même volontairement amplifié, dans les bombes nucléaires pour obtenir un effet maximum de chaleur (explosion) en un minimum de temps, comme la poudre noire dans une cartouche de fusil.
Les deux premiers miracles ne permettraient donc seulement que des réactions explosives… sans un troisième miracle.
Le troisième miracle
Les noyaux de l’U235 absorbent et conserve parfois le neutron incident pendant « un certain temps » avant de se briser (et d’éjecter également 2 ou 3 neutrons). Et certains nouveaux noyaux issus de la fission émettent également des neutrons avec « un certain retard » (jusqu’à plusieurs minutes).
Dans un réacteur nucléaire, ce retard providentiel permet de réguler en permanence la réaction en chaîne, et donc de contrôler la chaleur qui produira l'électricité.
Sans ces « neutrons retardés » la maîtrise de la réaction nucléaire dans un réacteur ne serait pas possible pour produire de l’électricité au bénéfice de l’humanité.
Il faut noter que, malgré sa difficulté à fissionner, l’U238 produit tout de même un tiers de la chaleur dans les réacteurs actuels en se transformant auparavant en plutonium 239 (Pu239) fissile par l’absorption d’un neutron grâce à la fission initiale de l'U235.
Un cadeau de l’Univers
La vie de certaines étoiles se termine parfois par une gigantesque explosion appelée supernova.
Ainsi, la nébuleuse du Crabe dans notre galaxie, par exemple, est le reste d'une supernova qui a été observée sur Terre en 1054 par des astronomes chinois.
Ces phénomènes gigantesques produisent des éléments tels que le fer, le platine, l'or, et l'uranium qui ensemencent l'espace galactique. Ces « poussières d'étoiles » s’agrègent ensuite avec le gaz interstellaire pour former de nouveaux systèmes solaires et des planètes, comme notre Terre.
RépondreSupprimerCertaines matières radioactives issues de ces transformations naturelles ont disparu avec le temps. D’autres sont toujours présentes en grande quantité dans la croûte terrestre. Ils participent de manière prépondérante (83 %) à la géothermie de notre planète (notamment le thorium et l'uranium pour respectivement 44 % et 39 %). Ce sont les deux seuls éléments naturels utilisables sur terre pour produire de l'énergie nucléaire... en utilisant l’allumette initiale U235.
En effet, il n’existe qu’un seul élément naturel fissible sur terre, c’est l’uranium 235 présent en faible quantité (0,7 %) dans l’uranium naturel composé essentiellement (98,3 %) d’uranium 238.
Dans les réacteurs nucléaires, d’autres éléments fissiles apparaissent ensuite, tels que du plutonium 239 (Pu 239 si le combustible est l’uranium 238), ou de l’uranium 233 (U233 si le combustible est du thorium).
Ces derniers peuvent aussi à leur tour jouer ce rôle « d’allumette » comme l’U235 et engendrer de la chaleur et de l’électricité pendant des millénaires grâce aux réacteurs « surgénérateurs », dont certains fonctionnent déjà et d’autres sont en préparation.
Ces derniers utilisent les couples (Pu239-U238) et (U233-Th232) comme combustibles et succèderont probablement aux réacteurs actuels au siècle suivant.
Mais il ne faut pas épuiser l’unique allumette initiale (U235) auparavant !
Ces réacteurs surgénérateurs « durables », dits de quatrième génération, utilisent 100 fois mieux l’uranium naturel (abondant) et le thorium (encore plus abondant). Les réserves mondiales de combustibles nucléaires sont de plusieurs milliers d’années pour ce type de réacteurs.
L’uranium est aujourd’hui sous utilisé
En France, plus de 300.000 tonnes d’U238 sont déjà stockées. Ce stock constitue une réserve de… 3000 ans (trois mille ans) sur notre sol.
En effet, une quantité d’U238 d’environ 100 tonnes par an serait suffisante pour produire l’électricité nécessaire à notre consommation nationale dans des surgénérateurs.
Aujourd'hui (octobre 2023), 58 réacteurs nucléaires sont en construction dans le monde, et les 412 en fonctionnement utilisent moins de 1% (0,6%) du contenu énergétique de l’uranium naturel.
En France, ce taux d’utilisation peut atteindre 0,8 % en recyclant une fois les matières valorisables (uranium et plutonium) encore présentes dans les combustibles usés.
Donc plus de 99 % du « combustible uranium » n’est pas encore utilisé aujourd’hui… mais le sera demain dans les surgénérateurs qui, en plus de fabriquer des éléments fissiles, ont deux autres avantages :
1) ils permettent d’utiliser le plutonium fissile issu du retraitement des combustibles usés des centrales nucléaires en fonctionnement, ou du démantèlement des armes nucléaires, ce qui économise l'utilisation de l'U235,
RépondreSupprimer2) ils produisent moins de déchets pour une même énergie produite.
Une énergie durable à l'échelle humaine
Demain, nos enfants ne manqueront pas d'énergie nucléaire propre (la production de déchets est maîtrisée et sera confinée de manière sûre et durable) pour produire l'électricité décarbonée nécessaire à leur qualité de vie (chauffage, industries, transports, …) pendant des milliers d’années sans utiliser de combustibles fossiles.
Ce triple contenu dans la nature contribuera de plus en plus au confort de l’humanité. Il procurera aux hommes qui le voudront (et qui le pourront) une meilleure qualité de vie grâce à une production d’électricité propre, décarbonée, abondante, bon marché, et durable pour le plus grand bien de notre planète.
https://www.economiematin.fr/energie-nucleaire-uranium-miracle-fission-gay
Les modèles climatiques de l'ONU n'expliquent même pas le gaz carbonique et les températures autour de 1940
RépondreSupprimer21 octobre 2023
par le Dr. Peter F. Mayer
Les modèles climatiques de l’ONU-IPCC ne peuvent pas fournir une explication du changement climatique avant 1950 et passent donc à côté des critères les plus importants des sciences naturelles. Même pour la période autour de 1940, des données incorrectes sur la température et les niveaux de gaz carbonique sont supposées.
Une étude d'Hermann Harde de l'Université de Hambourg s'intéresse de près à cette époque et montre que les données mesurées ne sont pas compatibles avec les modèles et les affirmations de l'ONU-GIEC. L'étude, intitulée « À propos des données historiques sur le gaz carbonique depuis 1826 : explication du pic vers 1940 », a été publiée dans ResearchGate en août 2023 .
Il est basé sur la détermination du niveau de gaz carbonique par le travail monumental d'Ernst-Georg Beck de détermination du niveau de gaz carbonique remontant à 1826. Il n'a été publié ici qu'après sa mort (2010) l'année précédente . Le rédacteur en chef de Science of Climate Change , Jan-Erik Solheim, a rédigé une appréciation du travail , dans laquelle il confirme la méthode par ses propres mesures sur une année.
Dans les travaux de Harde, les résultats sont résumés comme suit :
«Récemment, une compilation de près de 100 000 données historiques sur les mesures de concentrations chimiques de gaz carbonique entre 1826 et 1960 a été publiée sous la forme d'une édition commémorative post-mortem de feu Ernst-Georg Beck. Cette compilation peut fournir des informations importantes sur la compréhension des processus naturels d'émission de gaz carbonique, mais a également été critiquée, en particulier une augmentation significative documentée de la concentration atmosphérique de gaz carbonique vers 1940. Dans cet article, nous n'abordons pas les critiques concernant des emplacements plus ou moins appropriés pour l'émission de gaz carbonique. l'échantillonnage ou l'interprétation des données correspondantes, mais plutôt se concentrer sur les données gaz carbonique vers 1940 et les fluctuations au cours du siècle dernier. Nous montrons que les changements de concentration observés sont non seulement corrélés aux températures observées, mais peuvent également s’expliquer quantitativement, notamment par la respiration du sol dépendant de la température.
Le graphique montre l'anomalie de température et de gaz carbonique vers 1940 :
- voir graph sur site -
Fig. 1 : Comparaison de la concentration historique de gaz carbonique de Beck (points sombres) avec le calcul (losanges rouges) pour m = 0,6 et QL = 30 %/°C, basé sur les données de température de l'air terrestre de l'hémisphère nord (carrés verts, Soon et al. 2015) sur une période de 145 ans. De plus, ceci est comparé aux observations du Mauna Loa (points bleu clair, CDIAC 2017).
RépondreSupprimerLes fluctuations du gaz carbonique dans les données mesurées diffèrent grandement des données proxy beaucoup moins précises obtenues à partir d'échantillons de glace d'un seul continent (Antarctique). Les 60 000 mesures chimiques à l'échelle mondiale compilées entre 1930 et 1950 à l'aide des données de 25 auteurs et sites ont révélé que le gaz carbonique dans l'atmosphère a augmenté jusqu'à 383 ppm entre 1939 et 1943 - la même concentration qui n'a été atteinte qu'en 2007. Après le début des années 1940, les mesures chimiques montrent que les niveaux de gaz carbonique sont tombés à 310 ppm à la fin des années 1940.
Ces fluctuations sont cohérentes avec les fluctuations des températures de surface de la mer (l'eau plus chaude libère plus de gaz carbonique, l'eau plus froide moins) et les processus de respiration du sol dépendant de la température (avec des rapports de mélange compris entre 500 et 20 000 ppm), ce qui suggère que la température est la force motrice et que les fluctuations du gaz carbonique sont la force motrice. effet. Cette direction T → gaz carbonique, trouvée dans les données d'échantillons d'air mesurés sur le gaz carbonique du 19e au milieu du 20e siècle, est également évidente pour l'ère des satellites. D'autres travaux ont également prouvé ce lien entre la température et les niveaux de gaz carbonique.
En outre, l’analyse montre que sur l’augmentation de 90 ppm du gaz carbonique depuis 1958 (données de l’ère Mauna Loa), pas plus de 12 ppm sont dus aux émissions de combustibles fossiles. Et lorsque les niveaux de gaz carbonique ont atteint 383 ppm au début des années 1940, « l’influence des émissions anthropiques peut être largement exclue ».
Cependant, ces conclusions rendent le Green Deal superflu et sont donc étouffées par les politiciens, les organisations mondiales et les grands médias.
https://tkp.at/2023/10/21/uno-klimamodelle-erklaeren-nicht-einmal-co2-und-temperaturen-um-1940/
Une étude montre que le gaz carbonique n'influence que 10 % du rayonnement thermique et seulement 3 % de la troposphère.
RépondreSupprimer22 octobre 2023
par le Dr. Peter F. Mayer
Selon la modélisation de l'IPCC de l’ONU, le gaz carbonique d’origine humaine est responsable du réchauffement climatique depuis 1950. Les modèles ne peuvent pas tout expliquer avant 1950 et n’ont jamais réussi à prédire correctement les cinq prochaines années. Néanmoins, les politiques de l’ONU, de l’UE et des gouvernements nationaux s’appuient sur ces modèles, qui contredisent la physique et les données mesurées.
Un article d'Igor Khmelinskii et Leslie V. Woodcock dans la revue Entropy intitulé " Editorial Comment On Earth System Dynamics' "Greenhouse Effect" Editorial" critique vivement les déclarations erronées pratiquées.
Dans le résumé, les scientifiques écrivent :
« Nous répondons à un éditorial de la revue climatique Earth Systems Dynamics (ESD 14, 241-242, 2023), dont le titre fait deux affirmations scientifiquement fausses : (i) que l'hypothèse des gaz à effet de serre, c'est-à-dire la cause du réchauffement climatique mondial, le réchauffement d'environ 1K au cours de la période 1950-2020 est une vérité scientifique établie, et (ii) que les émissions de chaleur liées à la combustion mondiale de carburants sont négligeables en comparaison. Ces deux affirmations sont incompatibles avec les lois de la thermodynamique classique, les limites des modèles informatiques multivariés du bilan énergétique global de la Terre et la célèbre spectroscopie d'absorption et d'émission du gaz carbonique et démontrent l'ignorance de l'équipe éditoriale à leur sujet.
La méthode scientifique pour trouver la vérité exige que les hypothèses soient testées par un examen scientifique minutieux des résultats expérimentaux. La connaissance scientifique ne peut pas être acquise par le biais d’une politique de consensus. Nous remettons en question la sagesse d’une politique de rejet des articles susceptibles de remettre en cause l’hypothèse des gaz à effet de serre. Selon ce critère de la science par consensus, la publication de l'article de recherche de Nicolas Copernic en 1543 après JC, qui remettait en question le consensus dominant de l'hypothèse ptolémaïque d'un système terrestre statique, aurait été rejetée par les Publications Copernic. "
RépondreSupprimerOu comme le disait le cabarettiste bavarois Karl Valentin : « Si tout le monde pense la même chose, on pense peu. »
Les deux scientifiques soulignent au moins 8 hypothèses de « l’hypothèse des gaz à effet de serre » qui ne peuvent être scientifiquement confirmées. Malgré le manque de preuves observationnelles pour étayer leur position, les partisans de l’hypothèse du réchauffement climatique anthropique préfèrent rejeter et ignorer les objections à ce qu’ils croient être le « consensus » – à l’opposé de ce qu’exige la méthode scientifique.
Les collègues de NoTricksZone ont résumé certaines des objections :
Le gaz carbonique ne peut absorber que 10 % du rayonnement total dans les bandes IR spécifiques affectées par le gaz carbonique. Le gaz carbonique « n’absorbe absolument rien des autres longueurs d’onde IR ». Le gaz carbonique n'a donc aucune influence sur le rayonnement infrarouge (IR) dans 90 % des bandes d'absorption.
Le gaz carbonique ne peut absorber les IR que dans les 300 m supérieurs ou 0,3 km de la troposphère (de 8 à 15 km de la Terre) de surface de 10 km d'épaisseur. Ainsi, le gaz carbonique ne peut affecter que 10 % de l’IR dans 3 % de la surface de la troposphère où se produisent les changements climatiques.
En raison de son impact négligeable, un doublement de la concentration de gaz carbonique pourrait entraîner une modification maximale de la température de surface de 0,015 °C. Pour le dire de manière sobre
: « Cet effet ne serait même pas mesurable. »
L'incertitude sur le bilan radiatif de la Terre est de ±17 W/m². Le déséquilibre radiatif estimé est de 0,6 W/m², ce qui est des « ordres de grandeur » inférieurs à l’incertitude de son calcul. Par conséquent, « l’équilibre mondial des flux d’énergie… ne peut pas être déduit des flux mesurés »… et cela « a un impact sur notre capacité à comprendre comment le climat de la Terre réagit aux concentrations croissantes de gaz à effet de serre ».
Les rédacteurs d'ESD ne considèrent pas l'incertitude des observations - ni les questions sur l'ampleur des effets du gaz carbonique - comme méritant une analyse critique.
RépondreSupprimerLes modèles de l'ONU-IPCC sont adaptés à un agenda politique visant à créer des opportunités d'investissement pour les capitaux inutilisés grâce à une restructuration complète de l'économie après la destruction des structures qui fonctionnent actuellement bien. Afin de créer le fondement idéologique d’une redistribution planifiée de la propriété et de la richesse, la physique fondamentale est tout simplement ignorée ou inversée.
https://tkp.at/2023/10/22/studie-zeigt-co2-beeinflusst-nur-10-prozent-der-waermestrahlung-und-das-nur-in-3-prozent-der-troposphaere/
Pourquoi il ne peut y avoir de solutions à réduire les émissions de gaz carbonique ?
SupprimerD'une part il y a 2 zones de présence de gaz carbonique au-dessus de notre planète.
L'une est à très hautes altitudes où le gaz carbonique (et autres gaz) est envoyé lors des éruptions volcaniques terrestres.
L'autre est au ras du sol car, le gaz carbonique est le gaz le plus lourd. (L'air pèse: 1,2 gr/litre, Gaz carbonique: 1,8 gr/l., Oxygène (O2): 1,42 gr/l.).
Donc: il ne peut y avoir d'effet de serre à hautes altitudes ('une particule tous les 100 m !'), ni au ras du sol (le gaz carbonique est la cause des gelées - blanches - aperçues en campagnes).
Quoi qu'il en soit, TOUS les gaz se recyclent immédiatement dans l'atmosphère (sauf en hautes altitudes où les rencontres se font rares) et, au ras du sol par la présence du phytoplancton à la surface des eaux (lacs, rivières & fleuves et flaques d'eau, pluies et brouillards) qui le transforme en nano-particules de carbone (charbon).
Donc: l'effet culbabibatif ne peu exister pour mes êtres humains, les animaux ou les combustions industrielles.
Alerte Météo : la pluie va-t-elle inonder votre cave ?
RépondreSupprimerMétéo-France a émis une alerte de vigilance orange concernant six départements pour ce mardi 24 octobre 2023. Ces zones sont susceptibles de connaître de fortes pluies pouvant entraîner des inondations. Les habitants sont invités à prendre leurs précautions…
Par Paolo Garoscio
le 24 octobre 2023 à 8h10
Le coût des intempéries qui ont touché l'Hexagone au printemps 2022 est estimé à 3,9 milliards
Météo : Quels départements sont en vigilance orange pluie inondation ?
La Drôme, l'Ardèche, l'Ain, l'Isère, le Jura et les Alpes-Maritimes sont les six départements placés en vigilance orange par Météo France en raison d'un épisode pluvio-orageux actif. Ces régions sont particulièrement surveillées en raison des cumuls de précipitations qui pourraient dépasser les 100 mm, notamment entre l'Ardèche et l'Ain.
Cet épisode météorologique est dû à un axe pluvio-orageux qui s'est formé des Cévennes au Jura. Les pluies orageuses pourraient entraîner d'importants cumuls de précipitations, généralement compris entre 80 et 120 mm sur les départements en vigilance.
De plus, des conditions de circulation potentiellement "difficiles" sont à prévoir sur les axes routiers, avec d'éventuelles "perturbations" pour les transports ferroviaires.
La météo appelle à faire très attention...
Outre les inondations, d'autres risques sont à prévoir. Les zones littorales ainsi que l'arrière-pays, récemment impacté par la tempête "Aline", pourraient connaître des pluies intenses. « Les cumuls attendus sur cet épisode sont de 60 à 80 millimètres en peu de temps, et ponctuellement jusqu'à 100 millimètres » sous les orages les plus forts, souligne la préfecture des Alpes-Maritimes. De plus, des coupures d'électricité peuvent survenir.
Il est conseillé à la population de rester informée de l'évolution de la situation, d'éviter les déplacements et de se tenir éloignée des cours d'eau. À Nice, les parcs, jardins, cimetières et déchetteries resteront fermés « au moins une partie de la journée du 24 octobre voire toute la journée si la situation le nécessite ».
Les départements placés en alerte vigilance orange pluie, inondation et crues par Météo France
- voir cadre et carte sur site :
https://www.economiematin.fr/meteo-vigilance-orange-inondation-24-octobre
NON ! Il ne pleut pas plus qu'avant !
SupprimerMais alors... pourquoi ces inondations ? Les inondations sont dues aux absences d'écoulement !
Et oui ! Les fleuves et rivières ne sont plus draguées depuis plus de 40 ans ! C'est à dire qu'avec x mètres de merde au fond bientôt vous pourrez (hourra !) traverser la Seine à pieds !
Combien coûtent les batteries de véhicules électriques ?
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 21 OCTOBRE 2023 - 05H30
Le coût d’une batterie de véhicule électrique (VE) peut varier en fonction de sa composition et de sa composition chimique.
Dans ce graphique, Bruno Venditti et Sabrina Lam de Visual Capitalist utilisent les données de Benchmark Minerals Intelligence pour présenter les différents coûts des cellules de batterie sur les véhicules électriques populaires.
- voir cadre sur site -
Questions de taille
Certains propriétaires de véhicules électriques sont surpris lorsqu’ils découvrent le coût du remplacement de leurs batteries.
Selon la marque et le modèle du véhicule, le coût d'une nouvelle batterie lithium-ion peut atteindre 25 000 $ :
- voir cadre sur site -
Le prix d'une batterie pour véhicule électrique peut être déterminé par divers facteurs tels que le coût des matières premières, les dépenses de production, la complexité de l'emballage et la stabilité de la chaîne d'approvisionnement. L’un des principaux facteurs est la composition chimique.
Le graphite est le matériau standard utilisé pour les anodes de la plupart des batteries lithium-ion.
Cependant, c’est généralement la composition minérale de la cathode qui change. Il comprend le lithium et d’autres minéraux comme le nickel, le manganèse, le cobalt ou le fer. Cette composition spécifique est essentielle pour établir la capacité, la puissance, la sécurité, la durée de vie, le coût et les performances globales de la batterie.
Les cellules de batterie au lithium-nickel-cobalt-oxyde d'aluminium (NCA) ont un prix moyen de 120,3 $ le kilowattheure (kWh), tandis que l'oxyde de lithium-nickel-cobalt-manganèse (NCM) a un prix légèrement inférieur à 112,7 $ le kWh. Les deux contiennent des proportions importantes de nickel, augmentant la densité énergétique de la batterie et permettant une plus longue autonomie.
Les batteries au lithium fer phosphate (LFP), moins coûteuses à fabriquer que les variantes à base de cobalt et de nickel, sont moins coûteuses. Les cellules de batterie LFP ont un prix moyen de 98,5 $ le kWh. Cependant, ils offrent moins d’énergie spécifique et conviennent mieux aux véhicules électriques à autonomie standard ou courte.
Quelle batterie domine le marché des véhicules électriques ?
En 2021, le marché des batteries était dominé par les batteries NCM, avec 58 % de part de marché, suivies par LFP et NCA, détenant chacune 21 %.
À l’horizon 2026, la part de marché de LFP devrait presque doubler, pour atteindre 38 %.
NCM devrait constituer 45 % du marché et NCA devrait diminuer à 7 %.
https://www.zerohedge.com/technology/how-much-do-ev-batteries-cost
Coût (de 7 à 26 000 $) + dépose de l'ancienne (enlèvement de la carrosserie etc !) + montage de la nouvelle !
SupprimerDans les voitures essence ou diesel la changement dure 5 mn !
URGENT : Panne carte bancaire du samedi 21 octobre : le problème identifié !
RépondreSupprimerLa panne de paiement par carte bancaire qui frappe la France samedi 21 octobre 2023, et empêche les commerçants d’encaisser leurs clients qui souhaitent payer par carte bancaire, aurait trouvé son explication. D’après le GIE Carte Bancaire, ce serait le systeme informatique utilisé par plusieurs enseignes qui subirait une panne. Ce qui explique pourquoi les paiements par carte bancaire sont possibles dans certaines enseignes, et pas dans les autres.
Par Jean-Baptiste Giraud
le 21 octobre 2023 à 16h17
Il y a 41 millions de transactions par carte bancaire tous les jours en France ! Combien de millions ont été empêchées par la panne du paiement par carte bancaire du 21 octobre 2023 ?
La panne du réseau de paiement par carte bancaire survenue en France le 21 octobre 2023, révélée par EconomieMatin dès 13H37 dans cet article, a largement affecté les transactions dans plusieurs enseignes à travers le pays. Voici un résumé des explications concernant cette panne :
Panne carte bancaire : les explications
La panne a affecté les terminaux de paiement électronique (TPE) dans de nombreuses enseignes en France dès midi ce samedi, causant des désagréments non seulement pour les commerçants mais aussi pour les clients qui ont trouvé impossible d'effectuer des paiements par carte bancaire. Quelques pistes ont été évoquées concernant la cause de la panne, bien que la cause exacte n'ait pas été officiellement confirmée. Les scénarios possibles incluent une cyberattaque ou une défaillance technique majeure affectant les réseaux de paiement de Carte Bancaire, Visa, ou Mastercard1. Le Groupement d’intérêt économique des cartes bancaires aurait localisé la panne, sans toutefois fournir plus de détails sur la nature exacte de l'incident2. Il a également été mentionné que des problèmes de réseau, comme une panne chez Orange, pourraient avoir contribué à l'incident34.
panne des paiements carte bancaire : de nombreuses enseignes affectées
RépondreSupprimerLa panne a affecté une variété d'enseignes à travers la France. Notamment, les supermarchés Carrefour, Auchan, ainsi que l'enseigne de restauration rapide McDonald's ont été touchés. D'autres enseignes comme Aldi, Carrefour City, et même certains commerces locaux à Perpignan et à Boulogne ont également été impactés. À Marseille, les deux McDonald's de la ville ont été touchés, et à Nantes, une panne a été signalée chez Ikea. Les réactions sur les réseaux sociaux témoignent de l'étendue de la panne, avec des utilisateurs signalant des problèmes dans de nombreuses autres enseignes à travers le pays. Il a été rapporté que les clients abandonnaient leurs caddies en raison de l'impossibilité de payer par carte, ce qui indique l'ampleur de l'impact de cette panne sur les activités commerciales quotidiennes56789.
Cette panne majeure des paiements par carte bancaire illustre la dépendance croissante envers les paiements électroniques et la nécessité pour les infrastructures de paiement de rester robustes et sécurisées afin de minimiser les interruptions et les inconvénients pour les commerçants et les consommateurs.
Historique des Pannes de Paiement par Carte Bancaire en France
Les pannes des systèmes de paiement par carte bancaire ne sont pas un phénomène nouveau en France. Au fil des ans, plusieurs incidents ont été enregistrés, affectant diverses régions et enseignes. Par exemple, une panne majeure a été signalée le 1er juin d'une année non spécifiée, affectant les paiements par carte Visa en Europe, la France étant également touchée. De plus, des pannes locales ont été signalées, comme celle à Bailleul et Steenvoorde affectant le réseau Internet et mobile, rendant impossible le paiement par carte bancaire dans ces régions. Ces incidents mettent en lumière les défis associés à la maintenance d'une infrastructure de paiement robuste et fiable.
Au fil du temps, les prestataires de services de paiement et les enseignes ont dû adapter et renforcer leurs systèmes pour minimiser les risques associés aux pannes. Cependant, malgré ces efforts, les pannes continuent de se produire, comme en témoigne l'incident récent du 21 octobre 2023, qui a affecté de nombreuses enseignes à travers la France. Ces pannes rappellent l'importance de l'innovation continue et de la maintenance rigoureuse des systèmes de paiement pour assurer une expérience sans faille aux consommateurs et aux commerçants.
Fonctionnement et Invention de la Carte Bancaire
Le paiement par carte bancaire est rendu possible grâce à un système complexe de technologies et de protocoles qui assurent la transmission sécurisée des informations de paiement entre les commerçants, les banques et les prestataires de services de paiement. Lorsqu'un client effectue un paiement, les informations de sa carte sont transmises pour autorisation, puis la transaction est soit approuvée, soit refusée, avant d'être finalement traitée et enregistrée.
L'invention de la carte bancaire est attribuée à l'ingénieur français Roland Moreno, qui a déposé le brevet pour la carte à puce en 1974. Cette invention révolutionnaire a jeté les bases des systèmes modernes de paiement par carte, permettant une transition de l'argent liquide aux transactions électroniques sécurisées. La carte à puce de Moreno a non seulement facilité la vie quotidienne des consommateurs, mais a également ouvert la voie à l'évolution et à l'innovation continues dans le domaine des technologies financières, créant ainsi l'écosystème de paiement par carte que nous connaissons aujourd'hui.
RépondreSupprimerhttps://www.economiematin.fr/urgent-panne-carte-bancaire-du-samedi-21-octobre-le-probleme-identifie
(...) bien que la cause exacte n'ait pas été officiellement confirmée. (...)
SupprimerAujourd'hui plus qu'hier et bien moins que demain !
Compteurs Linky : la sobriété imposée à l’horizon ?
RépondreSupprimerUn projet de décret envisage d’utiliser les compteurs Linky pour limiter la consommation d’énergie des ménages. Pour Michel Negynas, cela met en lumière les dérives potentielles d’un tel outil de surveillance et de régulation de la consommation d’énergie.
le 24 octobre 2023
Michel Negynas
Actuellement, 90 % des usagers du réseau de distribution sont équipés d’un compteur Linky. Les réfractaires seront sans doute pénalisés financièrement. Ils sont en outre régulièrement accusés de complotisme. Il est vrai que ce compteur a été acccusé de provoquer des problèmes de santé liés au rayonnement, et qui sont de pures bêtises.
Mais la raison essentielle pour refuser Linky est ailleurs, et on commence à la voir plus nettement.
Un projet de décret qui en dit long
Le journal La Tribune a transmis des informations relatives à un projet de décret qui devait être examiné le 26 septembre par le Conseil supérieur de l’énergie (point 7). Devant certaines interrogations, l’examen est reporté, un texte modifié sera présenté, qui modifie des points d’organisation, mais pas sa finalité.
La présentation du décret : (référence ENER2324392D) fait l’objet d’un rapport dont voici quelques extraits :
« Le projet de décret définit les modalités d’une expérimentation relative à la limitation du soutirage des clients résidentiels raccordés en basse tension. L’objectif de cette expérimentation est de déterminer s’il est possible techniquement de mettre en œuvre une nouvelle mesure hors marché en cas de déséquilibre anticipé entre l’offre et la demande d’électricité. Une telle mesure permettrait ainsi de réduire ou d’éviter le recours au délestage qui reste la mesure ultime pour assurer l’équilibrage du réseau électrique.
Cette réduction est techniquement possible avec les compteurs communicants Linky. Ces derniers permettent, grâce à des ordres envoyés en avance, d’abaisser temporairement le seuil de puissance maximale pouvant être soutirée par le client. Par rapport au délestage programmé, cette réduction permettrait en outre d’élargir l’assiette des usagers résidentiels concernés dans la mesure où, s’agissant d’une intervention au niveau du compteur, l’ensemble des usagers résidentiels peuvent être ciblés. Elle présente également l’avantage de ne pas interrompre l’alimentation d’un client, le seuil de puissance minimal permettant de faire fonctionner les équipements courants peu énergivores. »
RépondreSupprimerTout est dit !
Le décret porte seulement sur une expérimentation limitée.
En effet, de nombreux points techniques sont encore à éclaircir. Sur un plan commercial et juridique, les choses sont loin d’être limpides également. Mais l’intention est là, et les fonctionnalités de Linky ont été dès le départ prévues pour cela.
Un rouage essentiel de la « transition »
Il peut (moyennant parfois quelques modifications de logiciels centraux) renvoyer des informations précises et quasi continues sur la consommation des entités raccordées.
L’analyse de ces données par des algorithmes adaptés permet de tirer une foule d’enseignements sur les habitudes, comportements, et même appareils utilisés (via leur signature d’appels de puissance) chez le consommateur. On peut, si besoin, transformer Linky en un véritable espion du foyer. Évidemment, on en est loin actuellement, mais qui peut prédire les évolutions sociétales, alors qu’on parle déjà de censurer le climatoscepticisme dans l’espace médiatique ?
D’ailleurs, ce danger n’est pas propre à Linky, il peut provenir de tout objet connecté.
Il contient un contacteur télécommandable en centralisé, probablement peu connu du public. Et c’est cette fonctionnalité qui permettrait l’application du décret. On abaisserait temporairement (pendant 4 heures) le réglage de coupure du contacteur, obligeant le consommateur à ne mettre en route que certains appareils.
Des discussions existent déjà sur les coupures pour impayés : elles seront beaucoup plus faciles et « anonymes », car télécommandées, et plus « morales » si on laisse un minimum vital de puissance, réglable aussi à distance, aux foyers concernés.
RépondreSupprimerÉviter un black out
À court et moyen terme, malgré des prises de position rassurantes, certains membres de l’administration et du gouvernement sont bien conscients des risques de black out à venir pour de nombreuses années encore.
Or, couper des zones entières n’est guère possible compte tenu de certaines applications à domicile à caractère vital (respirateurs, dialyse…). Linky permettrait une maille plus fine. Au lieu de s’interroger sur l’offre (pourquoi, malgré l’installation de 36 GW d’énergie renouvelable, on risque toujours de manquer de capacités ?) on préfère contraindre la demande.
À long terme, Linky pourrait participer à une « sobriété heureuse » pas tout à fait consentie.
Linky, un petit nom sympathique pour un mignon petit objet vert présent dans chaque foyer. Dormez bien, braves gens, son œil clignotant veille sur vous.
https://www.contrepoints.org/2023/10/24/465518-compteurs-linky-la-sobriete-imposee-a-lhorizon
Comme le sont tous les achats payés sur internet, les systèmes d'alarmes de maison ou de voiture, tout est piratable y compris bien sûr ce putain de 'compteur linky' dont n'importe qui peut le hacker (c'est pour çà qu'il a été fait).
Supprimer« Fait maison » : les restaurateurs ne pourront plus tricher
RépondreSupprimerVoilà une nouvelle qui va éveiller vos papilles ! La transparence dans la restauration est sur le point de connaître un changement majeur et positif. Olivia Grégoire, ministre déléguée aux PME et au Commerce, a dévoilé son ambition de donner un nouveau souffle au label « fait maison ».
Par Paolo Garoscio
le 23 octobre 2023 à 8h30
Restauration : le secteur génère un chiffre d'affaires annuel de 35,6 milliards d'euros.
Label « fait maison » : une évolution majeure en vue
Olivia Grégoire, la ministre déléguée aux PME et au Commerce, a exprimé son souhait d'apporter plus de clarté sur le label « fait maison ». D'ici 2025, tous les plats qui ne répondent pas à ce critère devront être clairement signalés sur les menus des restaurants. Une promesse faite dans le journal La Tribune Dimanche le 22 octobre 2023.
Cette démarche s'inscrit dans une volonté de valoriser les restaurateurs qui, malgré la hausse des coûts des produits alimentaires et de l'énergie, s'engagent à offrir une cuisine authentique, préparée avec amour et passion. Pour les consommateurs, ce sera l'assurance de déguster des plats de qualité, préparés avec des produits frais. Et pour les touristes, quelle meilleure façon de découvrir la richesse de notre gastronomie ?
L'histoire du label « fait maison »
Le label "fait maison" n'est pas nouveau. Créé en 2014, il permet d'identifier les plats élaborés sur place à partir de produits crus. Objectif : permettre aux consommateurs d'identifier les plats concoctés sur place à partir de produits bruts. Mais voilà, son utilisation restait facultative, le rendant discret et parfois méconnu.
La mise en place de ce label avait suscité de nombreux débats, notamment sur la définition d'un « produit brut ». Après de longues discussions, une décision a été prise : les produits surgelés seraient inclus, sauf les frites surgelées. Un choix qui avait fait couler beaucoup d'encre à l'époque !
RépondreSupprimerLes plats qui ne sont pas maison seront clairement identifiés
Avec cette nouvelle réglementation, les 175.000 restaurants de France devront s'adapter. Ils seront tenus de mentionner explicitement les plats non préparés sur place. Cette mesure vise à mettre en avant les établissements qui s'efforcent de proposer une cuisine authentique et de qualité. Et le principe est simple : tous les plats qui ne sont pas réellement « faits maison » devront être signalés sur la carte. Impossible de tricher, sous peine de sanctions.
Cependant, la mise en œuvre de cette réglementation nécessitera une période de concertation. Les modalités précises du futur label, ainsi que les mécanismes de contrôle, restent à définir. Le gouvernement vise une entrée en vigueur en 2025, sans plus de précisions. Mais une chose est sûre : cette initiative est saluée par de nombreux acteurs du secteur, conscients de l'enjeu que représente la transparence pour la restauration française.
Les restaurateurs favorables à l’évolution du label « fait maison »
La proposition de la ministre a été bien accueillie par certains acteurs du secteur. L'Union des métiers et des industries de l'hôtellerie (Umih) soutient la mesure, soulignant l'importance de valoriser la restauration traditionnelle française.
Alain Fontaine, président de l’Association Française des Maîtres Restaurateurs, a salué cette initiative. Interrogé par FranceInfo, il juge que c'est une avancée majeure qui permettra de « rassurer les clients » et de « soutenir l’agriculture française ». À l’approche des Jeux olympiques 2024, il est essentiel que les clients, qu'ils soient touristes ou résidents, aient une vision claire de ce qu'ils dégustent. « Pour le client c’est important de savoir que ces plats là ne sont pas faits maison. Ça ne veut pas dire qu'ils ne les prendront pas. Ça va être plus clair. Le client ne doit plus se demander s'il y a un pilote dans l'avion quand il rentre dans un restaurant. »
Alors, la prochaine fois que vous pousserez la porte d'un restaurant, prenez le temps d'observer le menu, de poser des questions, et surtout, de savourer chaque bouchée. Car derrière chaque plat "fait maison", il y a une histoire, un savoir-faire, et une passion à partager. Bon appétit !
https://www.economiematin.fr/fait-maison-label-restaurant-obligation-2025
(...) D'ici 2025, tous les plats qui ne répondent pas à ce critère devront être clairement signalés sur les menus des restaurants. (...)
SupprimerFini les 'faits maison', 'AOC' et 'Made in France' ! 'Les immigrés dehors' sera précisé au menu !
Quant au bœuf tué sur place, la vache traite aux cuisines, les poules aux placards et les salades qui poussent aux tables avec des bananes, oranges et café-maison... là, je crois qu'il faut attendre encore un peu quand le 'réchauffement climatique' sera là vraiment !
Alcool : après la Smirnoff Ice, l’Absolut Sprite ?
RépondreSupprimerL’Absolut Sprite, le cocktail prêt-à-boire créé par les deux géants Coca-Cola et Pernod Ricard, sera disponible dans plusieurs pays européens dès 2024.
Par Axelle Ker
le 22 octobre 2023 à 8h00
Le degré d'alcool de l'Absolut Sprite, le cocktail prêt-à-boire de Coca-Cola et Pernod Ricard, avoisinera les 5 %.
Coca-Cola et Pernod Ricard s'associent pour créer l'Absolut Sprite
La collaboration entre Pernod Ricard et Coca-Cola a surpris plus d'un. Ces deux géants, leaders dans leurs domaines respectifs, ont décidé d'allier leurs forces et leurs expertises pour créer un nouveau cocktail prêt-à-boire : l'Absolut Vodka & Sprite. Pour les deux entreprises, il s'agit avant tout « d'une alliance stratégique pour répondre aux attentes des consommateurs en quête de nouveauté ».
La combinaison choisie est celle de l'Absolut Vodka, l'une des marques phares de Pernod Ricard (deuxième producteur mondial de spiritueux et de vin), et le Sprite, cette boisson pétillante appréciée pour son goût citron-lime, produite par Coca-Cola. D'après les déclarations des deux entreprises, l'Espagne, l'Allemagne, les Pays-Bas et le Royaume-Uni devraient être les premiers à voir apparaître dans leurs rayons de supermarchés l'Absolut Sprite. Ce n'est d'ailleurs pas pour rien que l'Allemagne fera partie des pays qui accueilleront en premier l'Absolut Sprite de Coca-Cola et Pernod Ricard : la boisson Sprite y a été créée en 1959.
L'engouement autour des cocktails prêts à boire
Avec l'essor des cocktails prêts-à-boire depuis ces dernières années, notamment aux États-Unis et dans certains pays d'Europe, les deux entreprises visent à s'imposer sur le marché. Elles semblent plutôt confiantes quant à l'accueil de l'Absolut Sprite par le public : « Je suis certain que ce partenariat marquera une nouvelle étape dans le développement de la catégorie des boissons alcoolisées prêtes-à-boire », a déclaré le président-directeur général de Pernod Ricard, Alexandre Ricard. Un choix stratégique en effet, le Sprite fait partie des sodas les plus vendus dans le monde et la vodka est le 6e alcool le plus consommé au monde, après la bière, le vin, les liqueurs, le baijiu (eau-de-vie chinoise) et le whisky.Bien que le degré d'alcool puisse rapidement augmenter dans les cocktails, les deux entreprises ont indiqué qu'il se situerait aux alentours de 5 % pour l'Absolut Sprite (un chiffre susceptible de varier légèrement en fonction des réglementations dans les pays).
Depuis la crise sanitaire de 2019, les cocktails prêt-à-boire n'ont cessé de séduire le public. Généralement présentée sous forme de canette, ces boissons pratiques à transporter ont fait leur apparition au Québec en 2021. L'un des plus connus et les plus vendus est le Smirnoff Ice, un mélange entre la vodka et une boisson pétillante aromatisée au fruit.
https://www.economiematin.fr/coca-cola-pernod-ricard-lancent-absolut-sprite
Les données du recensement montrent que 871 000 Californiens ont quitté l’État en implosion en 2022
RépondreSupprimerPAR TYLER DURDEN
SAMEDI 21 OCTOBRE 2023 - 21H45
La Californie a connu un déclin massif de sa population depuis la pandémie de Covid. Les habitants en ont assez des politiciens progressistes radicaux et autoritaires, ainsi que des rues couvertes de merde, des zones métropolitaines qui implosent, des sans-abris incontrôlables, des marchés de drogue en plein air, de la montée en flèche des crimes violents et des vols, de l'inflation élevée, hors de portée. les prix des maisons, et bien plus encore.
AP News, citant de nouveaux chiffres de recensement, a souligné que 817 000 personnes ont quitté le Golden State en 2022. Cependant, avec l'ajout de 475 000 personnes s'installant en Californie cette année-là, l'État a connu une perte nette d'environ 342 000 habitants.
Le Texas continue d’être le plus grand bénéficiaire de l’exode californien. Environ 102 000 anciens Californiens ont déménagé l'année dernière dans le Lone Star State pour bénéficier d'un coût de la vie moins élevé, d'une criminalité moindre et d'un environnement fiscal plus favorable.
"Nous perdons des jeunes et je pense que nous allons voir des gens continuer à migrer là où les coûts de logement sont plus bas", a déclaré Manuel Pastor, professeur de sociologie et d'études américaines et ethniques à l'Université de Californie du Sud, dans une interview avec AP.
Le pasteur a déclaré : « Il y a de bons emplois en Californie, mais le logement est incroyablement cher. Cela nuit aux jeunes familles et aux familles d'immigrants.
En plus de chercher un logement moins cher ailleurs, de nombreuses personnes quittent l'État en raison de crimes violents. Les dernières données du FBI montrent que le terrain de jeu progressiste du gouverneur Gavin Newsom est en train d'éclater en crimes violents à la suite de politiques désastreuses de « définancement de la police ». Pendant ce temps, la criminalité est en forte baisse en Floride, où « la loi et l'ordre » sont adoptés.
Tendances des crimes violents, une histoire de deux États : Californie contre Floride (graphique WSJ)
Les chiffres ne mentent pas, même si des politiciens comme @GavinNewsom le font... pic.twitter.com/lVgaeEbeFL
– Steve Cortés (@CortesSteve) 20 octobre 2023
Les démocrates ont transformé la Californie en un État du tiers-monde en quelques années.
Un autre vol éhonté à San Francisco, en Californie. L'intrépidité des forces de l'ordre est évidente.#Californie #SanFrancisco pic.twitter.com/jVXyq2OCef
– Insider Times (@Insider_Times) 11 octobre 2023
À part les campements de sans-abri et l’échec de la sécurité publique, que peut offrir Newsom à Israël ?
Il s'agit d'une vidéo récente à l'extérieur de Whole Foods à Venice Beach. Ce n’est plus seulement Los Angeles, toutes les grandes villes de Californie ressemblent à ceci. https://t.co/MwOAHgz2n0 pic.twitter.com/YDMvoCNFD5
– Soledad Ursua (@SoledadUrsua) 19 octobre 2023
Sous la direction de Newsom, chaque ville de Californie semble pire que le tiers monde. Qu’apporte-t-il exactement à la table, à part les campements de sans-abri ? pic.twitter.com/y35UfyNn75
RépondreSupprimer– Soledad Ursua (@SoledadUrsua) 19 octobre 2023
La consommation publique de drogues dures et le vol généralisé vont désormais de pair comme le baseball et la tarte aux pommes dans les grandes villes de Californie. #Californie #Dystopie #Drogues #RetailTheft #FixProp47 pic.twitter.com/N8rbomzzib
– Jeff Reisig (@jeffreisig) 17 octobre 2023
Attendez que l’exode des personnes et des entreprises commence à écraser les recettes fiscales des villes…
Quant aux tendances 2023, John Burns Real Estate Consulting a récemment partagé un nouveau rapport qui montre que l'exode se poursuit cette année.
https://www.zerohedge.com/political/census-data-shows-871000-californians-left-imploding-state-2022
La complexité n’est pas synonyme d’impuissance
RépondreSupprimerDans un monde où la complexité règne, les solutions simplistes créent souvent de nouveaux problèmes. Comment alors agir efficacement sans céder à la tentation de la simplification excessive ?
le 24 octobre 2023
Philippe Silberzahn
Nous vivons dans un monde complexe. Le terme est galvaudé, mais il correspond à une réalité. Nous pouvons nous sentir dépassés par celle-ci et céder au renoncement. Pourtant, il est possible d’agir en complexité. Pour cela, il faut en comprendre la véritable nature.
Entre 1958 et 1962, Mao lance la campagne dite des « quatre nuisibles », incitant les Chinois à tuer les moineaux, les moustiques, les rats et les mouches. Les moyens techniques étant limités, le gouvernement a l’idée d’inciter les écoliers à capturer des rats et à les rapporter au siège local du Parti contre une récompense. La campagne rencontre un énorme succès, jusqu’au jour où on se rend compte que les gens se sont mis à élever des rats. Mao découvrira ainsi que nous vivons dans un monde complexe, où les solutions d’aujourd’hui, si elles ignorent cette nature, créent les problèmes de demain.
Comment les problèmes sont-ils résolus ?
Principalement par une démarche analytique. Analytique vient du grec analusis, dérivé de analuein, qui signifie défaire une trame, d’où dissoudre, décomposer et examiner en détail.
Le principe de la pensée analytique est donc le découpage : un problème compliqué est décomposé en sous-problèmes plus simples.
La démarche est la suivante : dans un premier temps, on formalise le problème de façon explicite, par exemple sous forme de formule mathématique, comme lorsqu’on doit calculer (3+8)x(5+2) ; puis on le décompose. Ici, on calcule d’abord 3+8=11, puis 5+2=7 ; une fois cela fait, on recompose, ici en effectuant la multiplication 11×7=77.
Cet exemple très simple est en fait très général : formalisation, décomposition, recomposition. De façon implicite, mais très importante, il est supposé que la résolution des sous-problèmes entraîne la résolution du problème. Une fois que j’ai résolu les sous-problèmes, je n’ai plus qu’à recomposer, il n’y a plus rien à résoudre.
Cette méthode marche remarquablement bien pour les problèmes compliqués, notamment dans le domaine technique. Une montre est un objet compliqué, le tout est strictement égal à la somme des parties. Le fonctionnement de la montre est parfaitement décrit en décrivant le fonctionnement de ses composants. Elle ne marche plus avec les problèmes complexes.
RépondreSupprimerUn problème est complexe notamment lorsque ses composants interagissent entre eux.
Une organisation est un système complexe, le tout est largement supérieur à la somme des parties (sinon l’organisation n’aurait pas d’objet, et le monde économique ne serait le fait que d’individus indépendants vendant leurs services). On peut parfaitement en analyser tous les départements (comptabilité, production, qualité, etc.) et pourtant ne pas être capable d’en comprendre le fonctionnement.
Avec un problème complexe, une partie peut en outre être supérieure au tout : par exemple, le problème de telle banlieue est dû à la pauvreté et au trafic de drogue ; ce dernier est un immense problème en lui-même, composé de nombreux sous-problèmes… dont la pauvreté. En outre, parce que ce sont des constructions sociales, et non de la matière morte, ils sont aussi réflexifs. Si j’accentue la lutte contre le trafic de drogue, je peux augmenter la pauvreté parce que les dealers n’ont plus de revenus, ce qui va augmenter la délinquance.
Les problèmes s’entremêlent, les causes aussi ; surtout, ils évoluent avec le temps. Ils sont polymorphes et sujets aux effets pervers : on augmente le prix de la cigarette pour décourager sa consommation dans le cadre d’une politique de santé, ce qui entraîne l’augmentation des trafics.
Nostalgie ou impuissance
La complexité de nos sociétés modernes a depuis longtemps préoccupé les penseurs.
Certains, qu’on peut qualifier de réactionnaires, ont souhaité un retour à la société d’avant, vue comme un idéal pastoral de simplicité. Les appels récurrents à la simplification sont une pensée similaire, car ils supposent qu’on peut simplifier une société complexe, ce qui n’est vrai que dans une certaine mesure. Nous avons bien sûr tous vécu des exemples de situations ubuesques où la complexité est le produit d’une dérive bureaucratique, et il n’y a aucun doute qu’il faut lutter contre celle-ci. Mais penser qu’on peut simplifier un monde complexe, c’est en ignorer la nature. D’autres penseurs, qu’on peut qualifier de pessimistes, ont eux conclu que la complexité rend impossible l’action humaine.
Pourtant, les deux ont tort.
On peut à la fois reconnaître la complexité inhérente à la société humaine, qu’on ne réduira jamais totalement, et se donner la capacité d’agir. La clé réside toujours dans notre capacité à décomposer un problème pour considérer un sous-problème qui soit de taille raisonnable.
Mais cette décomposition ne peut pas se faire de façon analytique, comme nous l’avons vu. Elle doit se faire différemment. Pour cela, on doit faire appel à une propriété que j’ai déjà évoquée et qui porte un nom barbare, la quasi-décomposabilité. De façon simple, la quasi-décomposabilité consiste à identifier les composants d’un système complexe qui interagissent fortement entre eux. C’est un regard porté sur le système pour mettre en lumière les composants qui s’influencent fortement, et ignorer les autres.
RépondreSupprimerDans un article, écrit avec mon confrère Dominique Vian, publié dans la Harvard Business Review, je donne l’exemple (très simplifié) du télétravail.
Un important frein à son développement est le manque de confiance : le manageur craint que son collaborateur ne travaille pas vraiment, et ce dernier craint qu’éloigné du siège, il ne soit oublié. Le télétravail et la confiance sont donc fortement liés, ce qui suggère des pistes d’action. Qu’en est-il du télétravail et de la guerre en Ukraine ? Les sanctions réduisent l’accès à une énergie peu chère venue de Russie, qui influence le coût du transport, qui augmente l’intérêt pour le télétravail. Il y a donc un lien entre la guerre et le télétravail, mais il est faible et il n’y a pas intérêt à essayer de l’exploiter en priorité. L’idée est donc que si tous les sujets sont liés, certains le sont plus fortement que d’autres, et que c’est sur eux qu’on peut se concentrer. On identifie ainsi des moyens qui n’étaient pas visibles quand les sujets étaient séparés.
La complexité de notre société est inéluctable. Il ne s’agit pas d’essayer de la réduire, car c’est aussi ce qui fait sa richesse.
Un monde simplifié de force serait d’un ennui terrible car nous ne sommes pas des fourmis. Cette complexité n’empêche cependant pas l’action transformatrice, pourvu que celui qui agit ait conscience de la véritable nature de cette complexité, et qu’il ait compris cette propriété un peu étrange qu’est la quasi-décomposabilité. On peut regretter qu’elle soit à ce point ignorée de gens qui pourtant sont des experts en la matière. Il faut sans doute y trouver là la raison d’une certaine résignation ou au contraire, de la persistance de politiques contre-productives, voire de fuites en avant utopiques. Alors, emparez-vous-en, et jetez-vous dans la complexité du monde avec joie !
https://www.contrepoints.org/2023/10/24/465919-la-complexite-nest-pas-synonyme-dimpuissance
La complexité est la non-compréhension d'éléments assemblés, c'est ce qui est appelé 'problème'. Cette lacune dans l'information peut venir d'un moteur, d'un ordinateur voire à l'étude de l'organisme de l'être humain.
SupprimerRemplacer l'esclave, l'animal par une machine demande beaucoup d'intelligence, mais ce savoir n'est pas partagé par tous. L'on s'en remet donc à des spécialistes. Là, on pense à l'ia ! où l'intelligence n'existe pas puisqu'elle est artificielle et n'a la liberté d'expression. Ce n'est rien d'autre qu'un programme 'répondant' à la plupart de nos questions. Oui mais voilà, c'est un programme ! Et, ce programme peut être biaisé, menteur, dévoyeur, bref, une politique malsaine destinée à tromper.
(II/IV) L’IA va-t-elle accentuer les inégalités de revenus, entre une élite surpayée et le reste des actifs sous-payés ?
RépondreSupprimerAlors que l’ère numérique a érodé la classe moyenne, l’avènement de l’IA pourrait-il présenter un tournant surprenant en faveur des moins privilégiés sur le marché du travail ?
le 24 octobre 2023
Thomas Jestin
Cet article fait partie d’une série. Dans l’article précédent, nous avons couvert les deux points suivants :
L’IA va-t-elle augmenter notre productivité ?
L’IA va-t-elle conduire à un chômage de masse ?
Dans les prochains, nous nous pencherons sur ceux-ci :
L’IA sera-t-elle monopolisée par Google et OpenAI ?
Et quid du jour où l’IA et les machines pourront faire tout ce que savent faire les humains ?
Admettons que le chômage de masse ne soit pas pour tout de suite, quel impact de l’IA sur la qualité des emplois, leur rémunération et répartition ?
Le tableau à ce jour
Les économistes nous disent que passés les abus des débuts, dans les pays occidentaux, l’ère industrielle et les progrès techniques qui l’ont accompagnée ont largement profité à tous et contribué à constituer de solides classes moyennes.
Par contre, depuis près de 40 ans, les preuves s’accumulent pour démontrer que la révolution informatique semble avoir conduit à une polarisation des emplois affaiblissant la classe moyenne : les tâches répétitives, manuelles et surtout cognitives, ont pu être abondamment automatisées, laissant, pour schématiser, d’un côté les emplois techniques et de services difficiles à robotiser mais souvent mal payés, et de l’autre les emplois les plus qualifiés toujours mieux rémunérés. Les inégalités de salaires ont augmenté sur cette période, surtout aux États-Unis.
Faisons abstraction un instant des bienfaits du progrès technique pour les consommateurs qui profitent de biens et services plus divers, moins chers et de meilleure qualité dans les secteurs assez ouverts à la concurrence, mais assez réglementés pour éviter les abus. Si on se concentre sur le seul volet de l’emploi, à ce jour, il faut reconnaître que les entreprises de la tech ont contribué à accroître les inégalités de salaires en ce sens qu’elles détruisent plus d’emplois dans les industries disruptées qu’elles n’en créent directement.
Un bon exemple est la comparaison entre Kodak qui employait 145 000 personnes à son apogée et Instagram, 13 employés lors de son acquisition par Facebook en 2012 (19 000 aujourd’hui).
On n’a pas pour autant assisté (aux États-Unis du moins) à une explosion du chômage, car beaucoup de ceux qui ont perdu leur emploi dans les secteurs disruptés ont pu en retrouver un, très souvent moins payé, dans d’autres secteurs pas encore bouleversés par la tech, dont la productivité reste faible et n’augmente que très peu. Les économistes expliquent que l’offre de travail, par les actifs, est inélastique, c’est-à-dire peu sensible aux variations de salaires, les gens ont besoin de travailler, surtout dans les pays à protection sociale réduite.
Bien sûr, le secteur de la tech est de plus en plus productif, avec une part croissante dans l’économie. Certes, il crée des emplois bien payés, mais pas tant que cela. Cela explique pourquoi la productivité totale au niveau macroéconomique ces dernières décennies augmente bien plus lentement qu’on n’aurait pu espérer.
RépondreSupprimerSi beaucoup de la valeur des récents progrès est assez largement capturée par les consommateurs, le reste l’est en bonne partie par les entreprises de la tech et ses employés qualifiés, pendant que de plus en plus d’actifs se retrouvent dans des emplois moins productifs et moins bien payés qu’avant : les inégalités de salaires se creusent.
Enfin, c’est le tableau à ce jour, la question est maintenant de savoir si l’IA va amplifier cette polarisation de l’emploi.
Et pour la suite ?
Il est trop tôt pour trancher, mais il est très intéressant de noter que de récentes études pointent vers le contraire.
Les moins expérimentés et diplômés seront possiblement avantagés dans certains cas, comme le montre cette étude de 2023 de l’université de Stanford et du MIT :
« L’accès aux outils d’IA générative augmente la productivité, mesurée par le nombre de problèmes résolus par heure, de 14 % en moyenne, avec le plus grand impact sur les travailleurs novices et peu qualifiés, et un impact minimal sur les travailleurs expérimentés et hautement qualifiés. »
Dans une autre étude de 2023, des chercheurs du MIT ont testé l’usage de ChatGPT sur diverses tâches d’écriture. Leur conclusion :
« Les inégalités entre travailleurs diminuent car ChatGPT fait davantage augmenter la productivité des personnes moins qualifiées et expérimentées ».
Et dans cette étude de 2023, des chercheurs des universités de Princeton, Pennsylvanie et New York montrent que « les emplois de cols blancs hautement qualifiés et bien rémunérés pourraient être les plus exposés à l’IA générative ».
Cette étude de septembre 2023 encore, réalisées auprès de consultants BCG :
« L’IA fonctionne comme un niveleur de compétences. Les consultants qui ont obtenu les pires résultats lorsque nous les avons évalués au début de l’expérience ont vu leurs performances augmenter le plus, soit une augmentation de 43 %, lorsqu’ils ont commencé à utiliser l’IA. Les meilleurs consultants ont quand même bénéficié d’un coup de pouce, mais moins important. »
Comme disait Sam Altman récemment, il y a encore 5 ans, tout le monde pensait que l’IA achèverait d’automatiser en priorité les tâches à la portée du plus grand nombre, comme la conduite, et ne toucherait qu’en dernier les tâches créatives, d’analyse et de synthèse. Sauf que c’est l’inverse qui est en train de se produire. L’IA générative peut résumer des textes, décrire des graphiques, inventer des images et des chansons, mais elle ne sait toujours pas conduire (à ma décharge, j’écrivais en 2017 cette tribune dans le JDN « Dans moins de 20 ans l’IA saura générer un épisode de Game of Thrones en une seconde »).
RépondreSupprimerSi ces enseignements devaient se confirmer et se généraliser à des pans plus complets de l’économie, cela pourrait bien inverser le creusement des inégalités.
Non pas parce que les actifs moins qualifiés seraient nécessairement mieux payés cependant, mais plutôt car ceux qui l’étaient très bien jusque-là le seraient potentiellement moins.
Prenons un exemple un peu extrême.
Imaginons qu’avec une IA spécialisée une infirmière puisse remplacer un médecin. L’infirmière n’aurait pour cela pas besoin d’étudier plus longtemps qu’avant. Pensez-vous que l’infirmière serait alors payée autant qu’un médecin aujourd’hui ? A priori non, elle gagnerait à peu près autant qu’avant, quand le médecin devrait accepter une baisse de salaire ou se reconvertir. Ce serait le public qui y gagnerait le plus, en profitant d’expertise médicale plus accessible. Si toutefois, face à la baisse du coût d’accès à la médecine, la demande en infirmières explose plus vite qu’on ne peut en former, alors le temps que cela se stabilise, le salaire des infirmières pourrait augmenter tant que cela reste moins cher que ne coûtent les médecins aujourd’hui.
Un médecin qui voit 4 patients par heure, 8 heures par jour, aura tenu près de 250 000 consultations en 30 ans. C’est sans doute un maximum, mais comment rivaliser avec une IA qui, dès son entrée en service, aura eu accès à des dizaines de millions de cas lors de son entraînement, et qui en parallèle aura en mémoire toutes les dernières études ?
L’empathie, dernier rempart ?
Certains dirons que le médecin l’emportera toujours pour l’empathie, mais c’est une qualité qu’une infirmière peut maîtriser tout aussi bien, voire mieux.
Et par ailleurs, il n’est pas dit que l’IA ne puisse pas en faire preuve également. Une étude de 2023 montre que ChatGPT est parvenu à répondre à des questions de patients avec autant de précision, mais plus d’empathie que des médecins.
Et le New York Times rapportait en juin 2023 que « des médecins demandaient à ChatGPT de les aider à communiquer avec les patients de manière plus compatissante ».
Il y a aussi ces exemples de personnes âgées en maison de retraite qui préfèrent se confier à un robot humanoïde qui ne les jugera pas plutôt qu’au personnel, ces étudiants qui préfèrent interagir avec un tuteur virtuel à la patience infinie plutôt que de prendre le risque de poser des questions bêtes à un humain, ou encore cette étude qui montre que « 60 % des répondants en France préféreraient parler de leurs problèmes de stress et d’anxiété au travail à un robot plutôt qu’à leur manager ». Sans oublier ces utilisateurs qui confiaient au chatbot Replika leurs fantasmes sexuels, et ont basculé dans la déprime quand la startup a désactivé ces sujets de conversation.
RépondreSupprimerOn aurait ainsi pu penser que l’IA permettrait aux meilleurs d’un domaine de capter une part encore plus grande des revenus, mais peut-être qu’au contraire, elle permettra un rééquilibrage. Ce sera sans doute tranché au cas par cas, secteur par secteur, domaine par domaine.
https://www.contrepoints.org/2023/10/24/465584-ii-iv-lia-va-t-elle-accentuer-les-inegalites-de-revenus-entre-une-elite-surpayee-et-le-reste-des-actifs-sous-payes
Comme l'ont été les infirmières payées 500 euros par jour pour administrer des piqûres létales aux plus cons qui s'en rapprochaient, les docteurs comme les 'IA' sont 'délocalisés' de leurs fonctions attendues et acceptent de répandre autour d'eux comme d'elles les dictatures criminelles reçues.
SupprimerDonc, la solution ne passe pas par ce chemin coupe-gorge mais par la Démocratie bien pensante où le dialogue n'est pas censuré.
Citation de document administratif bidouillée, 5.400 plaintes pour « mise en danger de la vie d'autrui », etc. classées, procès en diffamation perdu : la grande misère du « journalisme » militant et/ou paresseux
RépondreSupprimer24 Octobre 2023
Le paysage médiatique français est-il en train de devenir totalitaire ?
Citation bidouillée... pas de réaction ! 5.400 plaintes en « mise en danger de la vie d'autrui », etc. classées... pas de réaction dans la presse nationale ! Trois journalistes poursuivis en diffamation relaxés... pas de réaction ! Oui, ben... ils ont été relaxés... et ils ne sont pas dans le « camp du bien ».
- voir cadre sur site -
Dernière minute : j'ai changé la titre et le texte...
- voir cadre sur site -
(Source et source)
[Autocensuré... insérez un prénom...] et la citation bidouillée ? Silence dans les rangs !
- voir cadre sur site -
(Source)
Imaginez le ramdam médiatique si un journal – disons : classé à droite – avait publié un article en défense d'un produit de protection des plantes – disons, à tout hasard, le glyphosate – sur la base d'une citation, un peu, beaucoup, bidouillée d'un document administratif. Une citation peut-être suggérée ou livrée par un agrochimiste notoirement connu – disons pour rester dans la même veine : Bayer-Monsanto.
Et ajoutons : à quatre jours d'une décision cruciale, avec un document qui aura été gardé « au chaud » pendant 19 mois.
N'imaginez pas la situation inverse... Comme nous l'avons rapporté dans « Théo et le glyphosate : la dérive médiatique vers l'indignité », il y a un problème avec une citation dans le Monde – évidemment de M. Stéphane Foucart –, dans « Glyphosate : Théo Grataloup, porteur de graves malformations après une exposition prénatale, sera indemnisé » :
« ...les experts du Fonds d’indemnisation des victimes de pesticides (FIVP) ont reconnu "la possibilité du lien de causalité entre la pathologie de l’enfant et l’exposition aux pesticides durant la période prénatale du fait de l’activité professionnelle de l’un ou des deux parents" [...] »
RépondreSupprimerDans le Point, dans un article sobrement intitulé : « Exposition prénatale au glyphosate : l’avis mal compris du Fonds d’indemnisation des victimes de pesticides », Mme Géraldine Woessner a produit la citation exacte, avec des explication complémentaires détaillées sur un état des connaissances qui ne plaide pas en faveur des thèses promues par le Monde et d'autres médias à sa suite :
« Devant la profession exercée par la maman, la commission considère que l'exposition professionnelle aux pesticides, bien que limitée, est plausible, et retient la possibilité de lien de causalité entre la pathologie de l'enfant et l'exposition aux pesticides durant la période prénatale. »
- voir cadre sur site -
On peut bien sûr ergoter... ce n'est pas tout à fait exact, mais... Mais non ! Une citation est une citation. Point barre ! Et ici, elle a en plus été présentée de manière trompeuse.
Nous avions demandé dans l'article précédent, à propos du Monde : « où est la déontologie ? »
Bon nombre de médias se sont engouffrés et poussé l'argument du lien reconnu plus loin.
Citons, par exemple, le Parisien : « Glyphosate : le lien entre exposition prénatale à l’herbicide et malformation est reconnu ». Le lien est évidemment un lien de cause à effet.
Cet article vient du reste avec une vidéo de M. Daniel Cueff, ci-devant maire de Langouët, plaidant de manière enflammée pour des « zones de non-traitement » de 150 mètres autour des habitations, un sujet qui fut un temps fort polémique et qui s'est terminé en... eau de boudin.
Qu'on fait ces médias après l'article de Mme Géraldine Woessner ?
RIEN !
Même pas un rectificatif de leur article...
- voir cadre sur site -
5.400 plaintes en « mise en danger de la vie d'autrui », etc. classées
Ce site a été... supprimé !
Voici une autre histoire qui finit (temporairement ?) en eau de boudin.
- voir cadre sur site -
Les médias nous ont longtemps entretenus des « pisseries de glyphosate », ces opérations où des gens pouvaient se faire prélever les urines matinales en vue d'une analyse du taux de glyphosate et, le cas échéant, du dépôt d'une plainte. Une action de groupe par le dépôt de plaintes individuelles de teneur identique.
RépondreSupprimer- voir cadre sur site -
Ils ont même, complaisamment, promu ces opérations en les annonçant, avec tous les détails nécessaires.
- voir cadre sur site -
(Source)
Cela fait longtemps qu'on sait que les tests étaient bidon.
Citons parmi la littérature (dont la nôtre, mais ce n'est après tout qu'un blog), encore une fois, Mme Géraldine Woessner et son « Preuve à l'appui : les glyphotests sont bidon ! », du 20 décembre 2023. Un titre qui claque !
- voir cadre sur site -
Qu'ont fait les médias à la suite de cette révélation qui n'en était plus une mais venait d'une source médiatique reconnue ?
Quasiment (adverbe mis ici à titre de précaution, faute d'avoir vérifié en détail) RIEN !
Ce n'était peut-être – pourra-t-on dire – que Terre de Touraine. Comme nous l'avons rapporté dans « Les "pisseurs de glyphosate", le CRIIGEN et Mme Corinne Lepage rattrapée par la patrouille », La FNSEA Centre-Val-de-Loire a expliqué le 6 octobre 2023, que, début janvier 2020, le CRIIGEN savait que les tests des « pisseurs » étaient « mensongers ».
- voir cadre sur site -
(Source)
Ce n'était certes pas un scoop, mais à l'heure où le glyphosate est un sujet d'une grande actualité, on aurait pu penser que cela aurait pu intéresser les médias. D'autant plus que la FNSEA Centre-Val-de-Loire a été très présente sur les réseaux sociaux et que sa campagne s'est en quelque sorte agrémentée d'un épisode annexe croustillant (les maladresses de Mme Corinne Lepage) qui aurait dû appâter quelques pisse-copies et fact-checkeurs.
Imaginez une journaliste qui serait accusée par de bienveillants confrères (ironie) de faire des « ménages » pour la vilaine industrie agrochimique, qui nierait, mais qui aurait animé un débat pour la boulangerie et se serait fait offrir une chocolatine...
Que s'est-il alors passé ?
RIEN !
En septembre, à une date qui ne nous est pas connue, les 5.400 plaintes en « mise en danger de la vie d'autrui », etc. ont été classées sans suite par le Pôle Santé Publique du Parquet de Paris.
RépondreSupprimerIl est tout simplement impossible que cette action ait pu échapper à la vigilance de l'écosystème médiatique.
Mais que s'est-il passé ?
RIEN !
Le 17 septembre 2017 – donc quatre jours après le vote à Bruxelles sur le renouvellement de l'autorisation du glyphosate –, Reporterre publiait « Glyphosate dans les urines : 5 400 plaintes classées sans suite ».
En fait, l'information a été divulguée la veille sur le site des « pisseurs involontaires de glyphosate » de Bretagne , devenu véhicule pour une Campagne Glyphosate qui a désactivé son site. Mais vous aurez toutes les peines du monde à trouver le communiqué... il faut parcourir la colonne « Actualités ».
- voir cadre sur site -
(Source)
Notons encore que le cabinet d'avocats Tumerelle, qui a été/est à la manœuvre dans cette affaire a toujours une page « Campagne Glyphosate, explications et méthodologie » sur son site. Et, sauf erreur, il n'y a rien sur la décision du Parquet de Paris.
L'information devenait donc publique, même si l'article de Reporterre penchait lourdement vers les récriminations des meneurs de l'opération contre une décision qu'ils jugent scandaleuse.
La reprendre aurait sans doute exigé de citer leur discours. Mais il y a : « Ce n’est pas vraiment une surprise [...] ». Cela peut être interprété comme un aveu du fait qu'ils avaient connaissance des sérieuses « limitations » de leur action. Et surtout qu'ils l'ont maintenue malgré tout.
Il aurait sans doute fallu citer aussi des éléments de la décision. Reporterre rapporte... mais pas de première main :
« Le parquet parisien spécialisé dans le domaine de la santé a également rejeté la notion de mise en danger de la vie d’autrui, dans la mesure où"les plaignants ne risquent pas de mort immédiate ou une blessure de nature à entraîner une mutilation ou une infirmité permanente", selon un courrier adressé le 12 octobre aux participants de la Campagne glyphosate par les avocats de ce dossier.[...] »
Curieux raisonnement..
Et serait-ce tout ? Rien sur la validité des tests Elisa utilisés par BioCheck, un laboratoire vétérinaire allemand non accrédité pour des analyses humaines, etc., etc. ? Il se dit pourtant que les têtes agissantes de la FNSEA Centre-Val-de-Loire, MM. Michel Vaudour et Jean-Yves Chauveau, très affûtés sur cette question de test Elisa, ont été interrogés par la police judiciaire de Tours pour le compte du Pôle Santé du Parquet de Paris...
Et pourquoi ce courrier aurait-il été adressé aux participants le 12 octobre 2023 seulement ?
Mais l'important est que – comme le note Reporterre par ailleurs – cette décision vient (ou plutôt viendrait, vu son peu de poids dans la procédure décisionnelle européenne) en soutien d'une décision de renouvellement.
Que s'est-il alors passé ?
RIEN ! Ou presque...
Ouest-France a publié un articulet le lendemain, 18 octobre 2023, sans grands détails. On y apprendra quand même que « EELV 79 s'indigne »...
RépondreSupprimerLa presse locale commence à s'y intéresser, timidement, à l'heure où nous écrivons, avec notamment « Deux-Sèvres : les" pisseurs volontaires de glyphosate" déboutés et dégoûtés » dans la Nouvelle République du 20 octobre 2023.
Relevons que France Bleu renvoie le même jour à la position de la FDSEA, avec des liens, dans « Glyphosate : "pisseurs" et agriculteurs se renvoient encore la balle en Indre-et-Loire ». Idem dans « "Du glyphosate dans les urines" : les 28 plaintes déposées dans le Loiret classées sans suite ».
Et dans la presse nationale ?
RIEN !
Les gens de la presse nationale – notamment de France Bleu et des chaînes publiques d'information ne lisent-elle pas la/leur presse régionale ?
Affaires Gilles-Éric Séralini c. Patrick Cohen, Olivier Lesgourgues (MacLesggy) et Géraldine Woessner
C'est une histoire déjà ancienne, consécutive à l'infâme « Envoyé Spécial » sur le glyphosate de janvier 2019.
- voir cadre sur site -
(Source)
M. Patrick Cohen, M. Olivier Lesgourgues (MacLesggy) et Mme Géraldine Woessner avaient réagi à la séquence dans laquelle Mme Élise Lucet avait complaisamment tendu le micro à M. Gilles-Éric Séralini en lui donnant carte blanche pour dérouler son récit de chercheur persécuté après son étude sur des rats mondialement connue – en bien chez les activistes anti-OGM et -pesticides. Et ils avaient utilisé des mots qui fâchent...
L'audience a eu lieu le 1er septembre 2023.
Le même jour, Reporterre publiait un entretien avec M. Gilles-Éric Séralini, « Gilles-Éric Séralini : "Qui va vérifier que Monsanto ne fraude pas ?" ». De compte rendu d'audience, point...
Mais il avait ajouté une note en bas de page :
« Le Conseil de déontologie journalistique et de médiation a analysé, dans un avis rendu en juin dernier, un article du Point co-signé par Mme Woessner. Le Conseil a estimé que "les règles déontologiques d’exactitude et de respect de la véracité des faits, d’une part, et d’offre de réplique, d’autre part, n’ont pas été appliquées par Le Point". »
Nous avons analysé cet avis – scandaleux – d'un conseil autoproclamé dans « Géraldine Woessner et la déontologie perdue d'un "conseil de déontologie" ».
Enfin, c'est Reporterre...
RépondreSupprimerPolitis était aussi sur le coup, avec un article du 6 septembre 2023, « Pesticides : la fabrique du doute au tribunal ». La « fabrique du doute », c'est évidemment le trio... Et de compte rendu d'audience, pas vraiment...
Notons tout de même ce chef-d'œuvre de sophisme du dénigrement par association :
« Au sujet de l’étude de l’OMS, qui confirme les conclusions de Gilles-Éric Séralini, là aussi le déni est de mise. Marcel Kuntz, biologiste et directeur de recherche au CNRS, invité à témoigner en faveur des trois prévenus, a même une théorie sur le sujet, brièvement évoquée lors de son passage à la barre et développée dans un texte publié par la Fondation pour l’innovation politique. L’instance aurait été "captée par l’influence d’activistes" anti-pesticides, pour rendre sa décision. Le scientifique n’ignore lui-même rien des jeux d’influence qui persistent au sujet du glyphosate. Son nom est cité dans les Monsanto Papers en tant que membre d’un groupe de discussion privé nommé AgBioChatter, où scientifiques et représentants de la firme ont notamment échangé pour organiser une riposte médiatique à l’étude de Séralini. »
On peut s'étonner que l'affaire n'ait pas suscité plus d'intérêt : si l'étoile de M. Gilles-Éric Séralini a bien pâli, les trois prévenus font l'objet d'une attention très soutenue, d'une délicate bienveillance (ironie), de la part de certains éléments de la faune journalistique.
La décision des juges a été rendue le 17 octobre 2023.
Et que se passa-t-il dans les médias, notamment chez Reporterre et Politis.
RIEN !
C'est que M. Gilles-Éric Séralini a été débouté...
- voir cadre sur site -
(Source et source)
Il faut se tourner vers quelques sources en langue anglaise (voir une traduction ici, sur ce site) pour en savoir plus !
- voir cadre sur site -
(Source)
Ajoutons que la page Wikipedia (Wokipedia ?) de M. Gilles-Éric Séralini comporte une section « Procès en diffamation ». À l'heure où nous écrivons, il n'y a RIEN sur la récente affaire.
En revanche, la page de MacLesggy – qui a fait l'objet de tentatives de pollution – s'arrête à : « Le procès pour diffamation a lieu le 1er septembre 2023. »
https://seppi.over-blog.com/2023/10/citation-de-document-administratif-bidouillee-5.400-plaintes-pour-mise-en-danger-de-la-vie-d-autrui-etc.classees-proces-en-diffamation-perdu-la-grande-misere-du-journalisme-militant-et/ou-paresseux.html
« Une victoire pour la science » : un tribunal français rejette les poursuites en diffamation engagées par le scientifique anti-OGM Séralini
RépondreSupprimer23 Octobre 2023
Personnel de l'Alliance pour la Science et Victor Oria*
Dans une grande victoire pour la science, un tribunal français a rejeté le 17 octobre l'action en diffamation intentée par le célèbre scientifique français Gilles-Éric Séralini, militant anti-OGM, en donnant raison à trois journalistes spécialisés dans l'établissement des faits que M. Séralini avait poursuivis pour avoir qualifié son travail de « frauduleux ».
Mme Géraldine Woessner, l'une des trois journalistes visés par M Séralini, a annoncé sur X/Twitter : « J'ai la joie de vous annoncer que la jurisprudence a ENFIN changé : dans le procès en diffamation que m'intentait Gilles-Eric Séralini, pour avoir qualifié de "frauduleuse" son étude de 2012 sur les rats nourris aux OGM, le tribunal vient de prononcer la relaxe. Bonne journée!🎶 » Elle ajoute : « Mes confrères @MacLesggy et Patrick Cohen, également poursuivis, sont eux aussi relaxés. »
Fraude et tromperie
L'affaire remonte à 2019 lorsque M. Séralini, un biologiste français de l'Université de Caen, a poursuivi Mac Lesggy, M. Patrick Cohen et Mme Géraldine Woessner pour diffamation après que les trois journalistes eurent qualifié de frauduleuses et trompeuses les conclusions de son étude controversée – et ensuite rétractée – sur des rats nourris au maïs OGM et au Roundup.
M. Patrick Cohen, par exemple, avait qualifié à la télévision française l'article controversé de M. Séralini de « l’une des pires tromperies scientifiques de ces dix dernières années ». M. Séralini, par l'intermédiaire de ses avocats, a alors déposé une plainte pour diffamation devant le tribunal de grande instance de Paris, en France, demandant 50.000 euros à chaque journaliste à titre de dommages et intérêts et affirmant que sa santé avait souffert de la controverse.
Le tribunal a toutefois rejeté les arguments de M. Séralini. Se référant en particulier à l'utilisation par Mme Woessner du terme « frauduleux » pour décrire son article rétracté en 2012, le tribunal français a jugé qu'en utilisant ce terme, elle s'était appuyée sur [retraduit de l'anglais] « une base factuelle abondante » qui justifiait « l'utilisation de cette sémantique, qui ne doit pas être comprise au sens strict de fraude scientifique, mais plutôt comme la critique d'actes contrevenant à l'éthique qui devrait entourer la production et la couverture médiatique des travaux scientifiques ». Selon les juges, Mme Woessner a agi de bonne foi et a été acquittée de l'accusation de diffamation.
Se voir refuser un produit de valeur
Les scientifiques ont jubilé en apprenant que les journalistes français avaient été blanchis. M. Channa Prakash, professeur de génétique moléculaire végétale à l'Université de Tuskegee, aux États-Unis, a tweeté : « C'est une excellente nouvelle pour la science et la liberté d'expression. Appelons la fraude une fraude ! »
Mme Woessner a également souligné les dommages à long terme laissés par la controverse Séralini, qui a fait que la recherche publique sur les OGM « n'est plus possible en France » et a laissé un héritage médiatique de « théories conspirationnistes délirantes » et de méfiance à l'égard de la science « dont nous avons collectivement payé le prix, lors de la crise de la Covid ». Elle a ajouté : « Tout reste à faire pour réparer les énormes dégâts sociétaux infligés » par toute cette affaire.
RépondreSupprimer_______________
* Victor Oria (PhD) est LEAD Fellow, Prof. Janine Erler Research Group, Biotech Research and Innovation Centre – Université de Copenhague, Danemark.
Source : 'Win for science' as French court dismisses defamation lawsuit by anti-GMO scientist Seralini % Alliance for Science
https://seppi.over-blog.com/2023/10/une-victoire-pour-la-science-un-tribunal-francais-rejette-les-poursuites-en-diffamation-engagees-par-le-scientifique-anti-ogm-seralini.html
Une victoire pour la science : un tribunal kenyan rejette une plainte historique contre les OGM
RépondreSupprimer21 Octobre 2023
Godfrey Ombogo, Alliance pour la Science*
Ma note : L'interdiction des OGM au Kenya a pour origine la panique suscitée chez une ministre par les ignobles photos de rats de l'infameuse étude de Séralini et al.
Il convient de rester prudent : tous les recours juridiques n'ont pas été purgés et l'activisme anti-OGM, déployé au Kenya par des gens bien nourris et soutenus par des gens bien nourris d'Europe, est très imaginatif... et sans scrupules.
Le Kenya est désormais libre de déployer la culture et l'importation d'organismes génétiquement modifiés (OGM) après que la Cour de l'Environnement a rejeté l'affaire contestant ces derniers.
Dans un arrêt rendu le 12 octobre 2023, la Cour a déclaré que les pétitionnaires n'avaient pas apporté la preuve que les OGM nuisaient à l'environnement ou à la santé humaine.
« Le tribunal n'a reçu aucune preuve montrant que les défendeurs et les institutions citées ont enfreint les lois, les règlements et les directives concernant les aliments génétiquement modifiés, et en particulier l'approbation de leur dissémination dans l'environnement, la culture, l'importation et l'exportation du maïs Bt », a déclaré le juge Oscar Angote, qui a rendu le jugement de manière virtuelle.
Une grande victoire pour les scientifiques, les agriculteurs et les Kenyans
La Law Society of Kenya (LSK) a déposé le dossier le 16 janvier 2023. Elle contestait l'arrêté du 22 octobre du gouvernement kenyan levant une interdiction vieille de 10 ans de la culture et de l'importation de plantes génétiquement modifiées.
M. Richard Oduor, président du Kenya University Biotech Consortium et directeur par intérim de la recherche, de l'innovation et de la vulgarisation à l'Université Kenyatta.
Le professeur Richard Oduor, président du Kenya University Biotech Consortium (Kubico) et directeur par intérim de la recherche, de l'innovation et de la vulgarisation à l'Université Kenyatta, s'est déclaré « très enchanté » par le jugement, car il s'agit d'une grande victoire non seulement pour les scientifiques, mais aussi pour les agriculteurs et les Kényans en général.
« Je suis ravi. Les agriculteurs auront désormais la possibilité de tester la technologie que nous avons mise au point et d'accroître le rendement de leurs cultures », a déclaré le professeur Oduor au téléphone. « Je suis reconnaissant au gouvernement kenyan de nous permettre enfin de voir comment nous pouvons utiliser cette technologie dans notre intérêt, celui des agriculteurs et celui du pays. »
Le professeur Oduor a déclaré que la technologie des OGM a survécu pendant près de 30 ans et que le Kenya peut s'inspirer d'autres pays qui ont testé son efficacité et sa sécurité et l'ont adoptée.
« Le premier produit GM a été commercialisé en 1994. Nous ne pouvons pas être ici, en tant que pays, en train de discuter d'une technologie commercialisée il y a 29 ans. Elle deviendra très vite redondante », a-t-il déclaré. « Il y a des exemples dans le monde entier ; il y a des pays qui l'ont utilisée. Au moins, nous avons eu 30 ans, après la commercialisation, pour comprendre cette technologie et son soi-disant impact sur l'environnement. »
Une opération réalisée sans rapport d'évaluation de l'impact sur l'environnement
La plainte a soulevé plusieurs questions, notamment celle de savoir si les OGM en général et le maïs Bacillus thuringiensis (Bt) en particulier sont sûrs et s'il y a eu une participation du public avant la publication de la dépêche du Cabinet levant l'interdiction.
Il était également allégué que la culture, l'importation et l'exportation de maïs génétiquement modifié avaient été entreprises sans rapport d'évaluation de l'impact sur l'environnement (EIA).
RépondreSupprimerLe tribunal a estimé que le requérant n'avait pas contesté les lois nationales et internationales régissant les OGM et que les barrières réglementaires régissant l'importation et la culture d'OGM restaient en vigueur et étaient présumées constitutionnelles jusqu'à preuve du contraire.
« Les preuves dont je dispose montrent que le pays a mis en place un cadre solide avec des structures intégrées, qui doivent être respectées avant d'examiner et de déterminer les demandes d'approbation du transfert, de la manipulation et de l'utilisation des OGM », a déclaré le juge Angote.
Destiné à garantir la protection
Le juge a déclaré qu'en plus de la loi de 2009 sur la biosécurité et de ses règlements, l'Autorité nationale de biosécurité (NBA), qui était le deuxième défendeur, a adopté des lignes directrices qui régissent les procédures de dissémination dans l'environnement et de mise sur le marché d'OGM, la procédure de réception, le filtrage administratif et la manipulation des OGM.
« Toutes ces mesures visent à garantir la protection du droit à un environnement propre et sain », a-t-il déclaré.
Selon la NBA, le Kenya a approuvé 58 projets d'OGM – 40 pour une utilisation confinée en laboratoire ou en serre, 15 pour des essais confinés sur le terrain et trois pour une dissémination dans l'environnement ou une culture commerciale.
Les trois projets approuvés pour la culture commerciale sont le cotonnier Bt, qui a été commercialisé en janvier 2020 ; le maïs Bacillus thuringiensis (Bt), qui a été approuvé par la NBA en octobre 2022 et qui attend maintenant d'être soumis au National Variety Release Committee (NVRC) ; et le manioc résistant à un virus, qui fait l'objet d'essais de performance nationaux par le Kenya Plant Health Inspectorate Service (KEPHIS).
Mises au point et approuvées
Quatre variétés de cotonnier Bt ont été recommandées pour autorisation par le Comité National des Essais de Performance (NPTC). Dans le même temps, six ont été soumises à des essais NPT et à des tests de distinction, d'homogénéité et de stabilité (DHS), mais le procès a mis un terme à leur dissémination.
L'affaire ayant été réglée, les scientifiques et l'Autorité Nationale de Biosécurité sont désormais habilités à diffuser les variétés de cultures génétiquement modifiées qui ont été mises au point et approuvées et à en créer d'autres, alors que le pays est confronté à des défis en matière de sécurité alimentaire.
Une autre affaire consolidée initiée par des groupes de pression est toujours en instance devant la Haute Cour.
En Afrique, au moins dix pays ont approuvé des cultures génétiquement modifiées : l'Afrique du Sud a autorisé le cotonnier, le maïs et le soja génétiquement modifiés, et le Nigeria, l'Éthiopie, le Kenya, le Soudan, l'Eswatini et le Malawi ont autorisé le cotonnier, le niébé et le maïs résistants à des parasites, ainsi que le manioc résistant au virus de la striure brune.
RépondreSupprimerDr James Karanja de la KALRO (Organisation de la Recherche en Agriculture et Élevage du Kenya)
Le Dr James Karanja, chargé de recherche à la KALRO, estime que le maïs TELA Bt est la réponse à la situation d'insécurité alimentaire du Kenya, car il garantit un rendement de 10 sacs supplémentaires par acre, sans utilisation de pesticides. Il garantit également la qualité des grains et réduit la contamination par l'aflatoxine.
« La production de maïs au Kenya a diminué de 35 % entre 2018 et 2022 parce qu'il n'y a pas de variété tolérante aux insectes ou aux maladies sur le marché », a déclaré le Dr Karanja lors d'une récente réunion entre des éditeurs kenyans et des experts en biotechnologie à Nairobi.
Collaborer étroitement avec le ministère de la Santé publique
Selon l'Unité d'Analyse de la Sécurité Alimentaire et de la Nutrition (FSNAU), l'insécurité alimentaire est un problème récurrent, avec 3,2 millions de Kenyans dans les régions arides et semi-arides confrontés à des niveaux élevés d'insécurité alimentaire aiguë en septembre 2022.
Selon un rapport de l'Alliance pour la Science, en 2018, 18 millions d'agriculteurs dans 26 pays africains ont choisi de cultiver des plantes génétiquement modifiées, ce qui a contribué à réduire la pauvreté et la faim en bénéficiant à plus de 65 millions de personnes.
Le juge Angote a exhorté les Kényans à faire confiance aux institutions mises en place et à les rappeler à l'ordre si elles enfreignent la loi.
« La loi sur la biosécurité stipule que l'Autorité Nationale de Biosécurité doit collaborer étroitement avec le ministère de la Santé publique, qui protège la santé des consommateurs grâce à la sécurité alimentaire et au contrôle de la qualité », a déclaré le juge.
_______________
* Godfrey Ombogo est consultant éditorial, rédacteur scientifique consultant et rédacteur pour Media for Environment, Science, Health and Agriculture (MESHA) au Kenya. Il a été journaliste, sous-rédacteur et rédacteur chargé de l'assurance qualité au Daily Nation, The Star et The Standard, respectivement. Il a également écrit pour Talk Africa, une plate-forme de contenu multimédia en ligne.
* Source : Science wins as Kenyan court dismisses landmark case against GMOs - Alliance for Science
https://seppi.over-blog.com/2023/10/une-victoire-pour-la-science-un-tribunal-kenyan-rejette-une-plainte-historique-contre-les-ogm.html
Allemagne : la Leopoldina et la DFG demandent un positionnement fondé sur la science dans le débat européen sur les nouvelles techniques génomiques dans la sélection végétale
RépondreSupprimer21 Octobre 2023
Leopoldina, Académie Nationale des Sciences*
À l'occasion des prochaines délibérations du Bundesrat et du Bundestag sur le traitement à l'échelle européenne des plantes obtenues par de nouvelles techniques génomiques, l'Académie Nationale des Sciences Leopoldina et la Deutsche Forschungsgemeinschaft (DFG – communauté de la recherche allemande) ont publié une prise de position ad hoc. Elles y réaffirment leur soutien au projet de règlement proposé par la Commission Européenne le 5 juillet 2023. La DFG et la Leopoldina se penchent sur trois thèmes qui ont fait l'objet du plus grand besoin d'information dans le débat politique jusqu'à présent et résument l'état actuel de la science : 1. l'applicabilité du principe de précaution, 2. les conséquences économiques possibles pour les entreprises de sélection, 3. la compatibilité avec l'agriculture biologique.
Selon le projet de règlement de la Commission Européenne, les plantes obtenues à l'aide de nouvelles techniques génomiques (NGT) de type 1 (NGT-1) seraient pratiquement assimilées aux plantes conventionnelles. Elles seraient ainsi exclues du champ d'application de la législation sur le génie génétique. L'assimilation est justifiée par le fait que les plantes NGT-1 présentent des modifications génétiques (mutations) comparables à celles des variétés conventionnelles, et donc un profil de risque comparativement faible. Les détracteurs du projet considèrent que le principe de précaution n'est pas respecté, craignent des désavantages économiques pour les sélectionneurs de plantes et estiment que l'agriculture biologique en pâtit. La DFG et la Leopoldina font les remarques suivantes à ce sujet :
Applicabilité du principe de précaution
Selon les critères de la Cour de Justice de l'Union Européenne et de la Commission Européenne, le principe de précaution ne peut être appliqué que s'il existe un motif d'inquiétude scientifiquement justifié. Celui-ci fait défaut dans le cas des plantes et des produits NGT-1. De nombreuses études publiées dans des revues scientifiques internationales ne contiennent aucune indication selon laquelle les NGT ou leurs produits présentent un risque plus élevé pour l'homme et l'environnement que les variétés de plantes et leurs produits obtenus par mutations naturelles, par croisements et sélection classiques ou par mutagenèse (par irradiation ou par des produits chimiques).
Conséquences économiques possibles pour les entreprises de sélection
La législation européenne sur le génie génétique n'a pas de lien direct avec le droit de la propriété intellectuelle (droit des brevets et des obtentions végétales). La protection par brevet d'une plante modifiée par NGT n'exclut pas qu'un développeur de semences utilise cette plante à des fins de création variétale. Toutefois, la commercialisation de la variété nouvellement créée requiert une licence du titulaire du brevet, à condition que la variété contienne la séquence génétique protégée par le brevet et exprime le caractère qui en découle (ce que l'on appelle le privilège limité de l'obtenteur). La question de savoir si les obtenteurs sont prêts à supporter ces coûts de transaction (sous forme de redevances) relève d'abord d'une décision commerciale. Il n'est pas encore possible de prédire si les brevets sur les séquences des variétés NGT-1 constitueront un problème économique sérieux pour les obtenteurs de plantes et entraveront la création de variétés innovantes. Nonobstant cela, les inquiétudes exprimées quant aux développements futurs doivent être prises au sérieux. C'est pourquoi cet aspect doit être suivi de très près dans les années à venir et, si nécessaire, être amélioré dans le droit des brevets, comme le prévoit déjà la Commission.
Compatibilité avec l'agriculture biologique
RépondreSupprimerLe DFG et la Leopoldina se féliciteraient que le futur règlement de l'UE autorise également les plantes NGT-1 à des fins d'agriculture biologique, c'est-à-dire qu'elles ne tombent pas sous le coup de l'interdiction d'utilisation des OGM prévue par le règlement de l'UE sur l'agriculture biologique. L'agriculture biologique peut profiter tout particulièrement des plantes NGT-1 en raison de l'absence quasi-totale de protection phytosanitaire chimique. Étant donné que les modifications NGT-1 ne peuvent pas être distinguées des mutations spontanées dans la nature et des produits issus des techniques de sélection conventionnelles, la question de l'étiquetage ou de la réglementation des distances entre les surfaces cultivées différemment ou d'autres mesures de coexistence similaires ne se pose pas d'un point de vue scientifique. Contrairement à cela, le projet de la Commission n'autorise pas l'étiquetage d'un produit comme « biologique » ou « écologique » en cas d'utilisation intentionnelle de plantes NGT-1.
L'avis ad hoc fournit une précision juridique à l'avis détaillé « Wege zu einer wissenschaftlich begründeten, differenzierten Regulierung genomeditierter Pflanzen in der EU » (voies vers une réglementation différenciée et scientifiquement fondée des plantes génétiquement modifiées dans l'UE) de 2019 et fait référence au débat politique actuel en Allemagne.
______________
* Source : Leopoldina und DFG fordern wissenschaftsbasierte Positionierung in der EU-Debatte um neue genomische Techniken in der Pflanzenzucht
Ma note : Le projet de rapport pour les délibérations du Parlement Européen de Mme Jessica Polfjärd inclut la suppression de l'interdiction des variétés issues de NGT en agriculture biologique. Ma traduction :
« Agriculture biologique
Le rapporteur estime également que les NGT devraient être autorisées et rendues possibles dans le cadre de l'agriculture biologique. L'objectif de ce projet de rapport est de veiller à ce que tous les opérateurs, sans discrimination, puissent utiliser ces techniques. Ainsi, l'interdiction proposée par la Commission pour les techniques à utiliser dans l'agriculture biologique est levée pour garantir des conditions de concurrence équitables sans imposer la technique à aucun opérateur.
La proposition devrait permettre à tous les opérateurs d'avoir accès à ces nouvelles technologies. La liberté de choix est essentielle pour les opérateurs et la technique doit rester disponible. »
https://seppi.over-blog.com/2023/10/allemagne-la-leopoldina-et-la-dfg-demandent-un-positionnement-fonde-sur-la-science-dans-le-debat-europeen-sur-les-nouvelles-techniques-genomiques-dans-la-selection-vegetale.html