- ENTREE de SECOURS -



dimanche 18 août 2019

MAD DOG - Luke Goss, Heather Roop, RZA

https://www.youtube.com/watch?v=zYN2rcl4RNc

48 commentaires:

  1. FRIBOURG - DES PANNEAUX SOLAIRES EN FEU À CHIÈTRES


    18.08.2019, 10h52


    Une partie du toit d'une maison est parti en fumée samedi après-midi. Personne n'a été blessé. L'origine du sinistre doit être encore déterminée.

    Les sapeurs-pompiers de plusieurs brigades ont été mobilisés samedi après-midi pour intervenir à Essert près de Chiètres (FR). Les panneaux solaires et une partie du toit d'une maison étaient en flammes, a indiqué la police cantonale fribourgeoise.

    Une trentaine de sapeurs-pompiers de Chiètres, Morat et Essert près de Chiètres. ont rapidement pu maîtriser le sinistre et aucun blessé n’est à déplorer. Les habitants ont été relogés chez des connaissances.

    Les circonstances exactes de l’incendie restent indéterminées et une enquête de police a été ouverte.

    https://www.lematin.ch/faits-divers/toit-maison-flambe-chietres/story/26023226

    RépondreSupprimer
  2. ZURICH - LES ÉTUDIANTS DÉCIDERONT CE QU'ILS VEULENT APPRENDRE

    Une nouvelle Haute école pédagogique ouvrira bientôt à Zurich. Les futurs professeurs pourront choisir ce qu'ils veulent apprendre et enseigner.

    Une nouvelle Haute école pédagogique à Zurich crée une polémique.


    18.08.2019


    Une nouvelle Haute école pédagogique est sur le point d'être inaugurée à Zurich. Son objectif ? Former les enseignants à une nouvelle approche scolaire qui permettrait aux élèves de décider ce qu'ils veulent apprendre et quand, rapporte la «NZZ am Sonntag».

    Le «Campus Intrinsic» ouvrira ses portes le 18 septembre, une bonne dizaine de personnes devraient y débuter un cursus, long de trois ans et basé sur cette même idée. A l'issue de la formation, les diplômés pourront enseigner à l'école primaire, y compris dans les écoles publiques.

    L'idée que tous les enfants doivent apprendre la même chose au même moment et au même endroit est dépassée, ont expliqué les initiateurs Christian Müller et Daniel Straub. L'école du futur doit être basée sur la passion, la volonté d'apprendre et les qualités de chaque élève.

    A la Haute école pédagogique de Zurich, le recteur Heinz Rhyn se montre sceptique. Selon lui, on ne peut pas apprendre la profession d'enseignant en étudiant simplement ce qui vous intéresse. Certaines compétences sont nécessaires.

    Economiesuisse se montre moins critique et estime que si le système d'enseignement public en Suisse est très bon, il doit aussi changer. Sur le marché du travail, les employeurs recherchent toujours davantage des collaborateurs créatifs, capables de développer leurs propres idées, relève par exemple la faîtière. (ats/nxp)

    https://www.lematin.ch/suisse/etudiants-decideront-qu-veulent-apprendre/story/19401921

    RépondreSupprimer
    Réponses
    1. (...) Former les enseignants à une nouvelle approche scolaire qui permettrait aux élèves de décider ce qu'ils veulent apprendre et quand, rapporte la «NZZ am Sonntag». (...)

      Enfin des élèves s'éloignent des traversées Atlantiques plus chères en bateau qu'en avion et seront examinées !

      Faut pas prendre les petits suisses pour des fromages !

      Supprimer
  3. LES TRISOMIQUE INAUGURENT !

    ISLANDE - HOMMAGE À UN GLACIER VICTIME DU RÉCHAUFFEMENT


    18.08.2019


    Comme un symbole pour attirer l'attention, l'Islande va dévoiler dimanche une plaque à la mémoire de l'Okjökull, premier glacier de l'île à avoir perdu son statut, englouti par le réchauffement, l'occasion pour les scientifiques d'alerter sur les conséquences du dérèglement climatique. La plaque commémorative doit être inaugurée vers 13h00 (heure suisse), sur le site de l'ancien Okjökull (littéralement «glacier Ok» en islandais), dans l'ouest de l'île.

    La Première ministre islandaise Katrin Jakobsdottir et l'ancienne commissaire des Nations unies aux droits de l'Homme Mary Robinson sont notamment attendues lors de la cérémonie. «Il s'agira du premier monument érigé en l'honneur d'un glacier disparu à cause des changements climatiques dans le monde», avait déclaré en juillet Cymene Howe, professeure d'anthropologie à l'Université Rice aux Etats-Unis, à l'initiative du projet.

    Avec cette plaque en lettres d'or titrée en islandais et en anglais «Une lettre pour l'avenir», les chercheurs espèrent sensibiliser la population face au déclin des glaciers et aux effets du changement climatique. La plaque porte également la mention «415 ppm gaz carbonique», en référence au niveau record de concentration de dioxyde de carbone enregistré dans l'atmosphère en mai dernier.

    RépondreSupprimer
  4. «En commémorant un glacier déchu, nous voulons mettre l'accent sur ce qui est en train de disparaître - ou de mourir - dans le monde entier, et attirer l'attention sur le fait qu'il s'agisse de quelque chose qui a été 'accompli' par les hommes, bien que nous ne devions pas en être fiers», explique Cymene Howe, citée dans un communiqué.

    «Les discussions sur le changement climatique peuvent être très abstraites, accompagnées de nombreuses statistiques catastrophiques et des modèles scientifiques complexes (...) incompréhensibles», ajoute-t-elle. Ainsi, juge la professeure, «un monument à la mémoire d'un glacier disparu peut-être un bon moyen d'appréhender ce à quoi nous sommes aujourd'hui confrontés».

    Selon la chercheuse et son confrère Dominic Boyer, l'Islande perd environ onze milliards de tonnes de glace chaque année. Les scientifiques craignent la disparition des quelque 400 glaciers que compte l'île subarctique d'ici 200 ans. La glace de l'Okjökull, qui recouvrait encore 16 kmé de surface en 1890 n'était plus que de 0,7 km² en 2012, selon un rapport de l'université d'Islande publié en 2017.

    Déclassé en 2014

    En 2014, «nous avons pris la décision qu'il ne s'agissait plus d'un glacier, c'était seulement de la glace morte qui ne bougeait plus», raconte à l'AFP le géologue Oddur Sigurdsson, qui a étudié l'Okjökull. Le glacier est alors déclassé, une première pour l'Islande.

    Pour avoir le statut de glacier, la masse de glace et de neige de celui-ci «doit être assez épaisse pour pouvoir se déplacer grâce à son propre poids», soit 40 à 50 mètres d'épaisseur afin de produire suffisamment de pression pour rendre la glace malléable, explique-t-il.

    Près de la moitié des sites du patrimoine mondial pourraient perdre leurs glaciers d'ici 2100 si les émissions de gaz à effet de serre se poursuivent au rythme actuel, selon une étude de l'Union internationale pour la conservation de la nature (UICN) publiée en avril.

    Oddur Sigurdsson dit «craindre que rien ne puisse être fait pour arrêter» ces disparitions. «L'inertie du système climatique est telle que, même si on arrêtait dès maintenant d'introduire des gaz à effet de serre dans l'atmosphère, il continuerait à se réchauffer pendant un siècle et demi ou deux avant d'atteindre son équilibre», précise-t-il.

    En Islande, le parc national du Vatnajökull, dans le sud de l'île, inscrit au patrimoine mondial de l'UNESCO depuis juillet, porte le nom du glacier qu'il abrite et qui conserve encore le titre de plus grande calotte glaciaire d'Europe. (afp/nxp)

    https://www.lematin.ch/monde/europe/hommage-glacier-victime-rechauffement/story/18184575

    RépondreSupprimer
    Réponses
    1. L''ATS' Association des Trisomiques Islandais' va inaugurer une plaque commémorative au cul chauffé des glaciers !

      A savoir que l'Islande se trouve proche du pôle Nord (surface aplatie, donc plus près du magma) où se trouve des milliers de sources chaudes volcaniques qui fondent les glaciers par en-dessous. Ces mêmes morceaux de glace perdent de leur volume par en-dessous !! Ce qui fait que la glace se décroche du sol et monte en surface. Oui mais voilà qu'apparaissent des phénomènes de physique (1ère année) que toute glace libérée... flotte ! Çà alors ! Et donc, comme seulement 1/10ème du volume émerge s'il est rapeti... il perd du volume !! Çà alors ! D'où les titres de presse montrant que le volume surfacique diminue ! Çà alors !!!

      Va t-on porter plainte contre les actions criminelles et terroristes du magma qui s'en prend en traitre par en-dessous ?!

      Supprimer
  5. La probabilité de l'évolution


    Mandatory Intellectomy
    Sott.net
    mar., 06 août 2019 10:19 UTC


    Comment l'évolution se produit-elle ? Par hasard, nous dit-on. Les choses arrivent comme ça. Chaque étape de l'évolution est un accident. Le modèle que l'on nous enseigne tous à l'école dit que l'évolution se produit à travers des mutations aléatoires et la sélection naturelle. La sélection naturelle est censée trier le bon grain de l'ivraie, de sorte que le seul mécanisme capable de produire une « nouvelle » information est la mutation. Cette mutation équivaut à des erreurs aléatoires dans l'ADN. (Oui, cela peut déjà sembler bizarre, mais c'est la théorie.) Nous sommes le résultat de milliards d'années d'erreurs accumulées. Nous avions déjà atteint la perfection lorsque nous n'étions qu'une bactérie. Si ces erreurs s'avèrent « utiles » — un autre concept quelque peu bizarre — l'organisme survit et se reproduit mieux que les autres, et transmet la nouvelle information génétique. Comme nous le savons, la plupart des mutations sont dommageables. Les bénéfiques sont rares. Donc, si l'évolution n'arrive que par hasard et que les bonnes mutations sont rares, nous devrions nous demander quelle est la probabilité de l'évolution ?

    Les ribosomes comprennent une machine macromoléculaire complexe, présente dans toutes les cellules vivantes, qui sert de site à la synthèse biologique des protéines (transcription). Les ribosomes relient les acides aminés entre eux dans l'ordre spécifié par les molécules d'ARN messager (ARNm).

    Pour la plupart des mathématiciens — ceux parmi nous qui comprennent réellement le concept de probabilité — qui ont déjà considéré cette question, l'évidence qui ressort est que ce n'est pas probable du tout. En fait, c'est extrêmement improbable, et ces mêmes mathématiciens débattent de cette question depuis les années 1960. Ils ont du mal à prendre cette théorie au sérieux, parce qu'ils peuvent en faire la démonstration. Les néo-darwinistes, par contre, ne sont pas très doués pour calculer des probabilités et insistent sur le fait que, même si tout ce qui concerne l'évolution est improbable, on peut résoudre cette improbabilité avec le temps. Mais est-ce vrai ? Cette improbabilité peut-elle vraiment être résolue avec le temps ? Comme nous le verrons, elle ne le peut pas. L'idée qu'elle le puisse est enracinée dans la ferme conviction qu'elle le doit, conviction enveloppée d'hypothèses floues dépourvues de tout lien avec les données du monde réel, ce qui en fait donc une illusion. Les données du monde réel brossent un tableau différent. Reconnaître vaguement qu'un concept est improbable est une chose. Faire les calculs et voir à quel point l'improbabilité est écrasante est une tout autre histoire.

    Récapitulons rapidement les bases. L'information génétique dans l'ADN est codée dans une longue chaîne de séquences de quatre lettres — A, T, C, G. Elle ressemble donc à « TACGATGCTAGCAT... » et ainsi de suite. Les mutations se caractérisent par leur capacité à changer de façon aléatoire certaines de ces lettres. Ces séquences sont ensuite utilisées comme modèle pour coder les protéines. Séquence différente -> protéine différente. Enfin, si vous êtes très chanceux. Si vous ne l'êtes pas, alors c'est une séquence différente -> rien. Vous obtiendrez juste un polypeptide qui ne se pliera pas et qui par conséquent s'avérera inutile. Si vous êtes toutefois légèrement chanceux, les processus sophistiquées de la cellule permettront de l'évacuer. Si ce n'est pas le cas, ces produits défectueux peuvent s'accumuler, se coller ensemble et causer des maladies. Les mutations sont assez destructrices. Tout le monde sait cela (sauf les darwinistes).

    RépondreSupprimer
  6. L'évolution est un concept qui est censé améliorer les choses avec le temps. Mais selon la théorie, les seuls éléments qui fournissent de nouvelles informations sont littéralement des « erreurs aléatoires » dans un processus qui à la base fonctionne. Il ne devrait pas être nécessaire d'être un génie pour ne serait-ce que vaguement suspecter l'improbabilité de cette hypothèse.

    Cet article contiendra beaucoup de nombres, mais pour ceux qui ne sont pas familiers avec les mathématiques, voici une analogie toute simple. Imaginez que vous avez un livre, et disons qu'il s'agit de la Bible. Je sais, c'est un mauvais exemple de livre, mais ne vous inquiétez pas, nous allons le transformer en quelque chose de mieux. Imaginez maintenant que nous sommes au bon vieux temps avant l'impression numérique, à l'époque où les livres sont copiés à la main. Ils sont copiés par des gens qui ne sont pas parfaits, qui font parfois des erreurs et qui souvent ne comprennent pas la langue du livre. Donc, de temps en temps, il manque une lettre ou un mot, ou les mots sont mal orthographiés, et ainsi de suite. Disons que ce processus se poursuit pendant des millions d'années, jusqu'à ce que le texte ait peu de ressemblance avec le livre original.

    Avec le code génétique, la théorie suppose qu'un poisson a commencé à muter il y a des centaines de millions d'années, et qu'après tout ce temps il est devenu un singe. Pour comprendre à quel point cette idée est risible, imaginez que la Bible qui est copiée d'innombrables fois devient lentement un livre complètement différent, comme Le Seigneur des Anneaux, par exemple. Ne serait-ce pas incroyable ? Bien sûr, mais même si nos compétences en mathématiques sont faibles, il est facile de comprendre que cela n'arrivera jamais. Pour obtenir Le Seigneur des Anneaux, quelqu'un doit l'écrire délibérément et consciemment. L'histoire doit être planifiée et chaque lettre du livre doit être très précise. Des erreurs aléatoires de copie ne produiront jamais un tel résultat. Noé ne va pas devenir Frodon par accident, encore moins par une série de milliers de petites étapes. (Bien qu'il serait certainement amusant d'imaginer toutes les étapes intermédiaires : « Tu amèneras deux animaux de chaque espèce à Mordor ! ») Et pourtant, nous sommes censés croire que c'est exactement ce qui s'est produit entre le poisson et le singe. Personne ne se dit qu'il y a anguille sous roche ?

    L'origine de la vie

    Le plus grand problème de la conception darwinienne statuant qu'« il n'existe absolument aucune intelligence dans la manifestation de la vie » est peut-être de ne pas poser la question de savoir comment la vie a vu le jour initialement. Ce n'est pas strictement un problème d'évolution, mais c'est étroitement apparenté. Un des éléments sur lequel les darwinistes insistent de manière absolue est qu'il ne peut y avoir de concepteur. (Pour une raison ou une autre, le dessein intelligent est une des choses qui les effraient plus particulièrement). S'il y a eu un concepteur dès la première cellule vivante, insister sur le fait qu'aucun dessein n'est impliqué dans l'évolution elle-même n'aurait guère de sens. Les darwinistes doivent donc également insister sur le fait que même la toute première cellule doit être issue de certains processus naturels, sans qu'aucune intelligence ne soit impliqué. Ils n'ont aucune idée de la façon dont cela se produirait et même si ce sujet est source de querelles intestines depuis des décennies, ils s'entendent tous pour dire qu'aucun dessein intelligent n'a pu être impliqué (puisque l'intelligence est effrayante).

    RépondreSupprimer
  7. C'est quelque peu ridicule, étant donné que toutes les preuves jusqu'à présent ont montré qu'aucun processus inintelligent ne peut expliquer la création de ne serait-ce qu'un fragment de cellule vivante, mais ces scientifiques refusent d'abandonner leur théorie irréaliste et d'accepter la réalité, convaincus que le matérialisme [en tant que doctrine qui ramène toute réalité à la matière et à ses modifications en rejetant l'existence d'un principe spirituel - NdT] en est le fondement.

    L'idée générale est alors que la toute première cellule vivante est née de processus naturels, par le simple biais des lois de la physique et du hasard. Mais toutes ces théories n'ont pas réussi à convaincre plus d'une poignée de personnes, et pour de bonnes raisons, comme, par exemple, qu'elles n'ont aucun sens. Voyons ce dont une telle cellule aurait besoin pour fonctionner et se reproduire.

    La plupart des plus petites bactéries ont des centaines de milliers de nucléotides dans leur ADN et codent pour des centaines de protéines. La plus petite bactérie que j'ai pu trouver est Carsonella ruddi, avec cent soixante mille paires de bases, codant pour cent quatre-vingt-deux protéines. Et ceci uniquement parce que certaines des fonctions nécessaires à sa vie sont assurées par son insecte hôte — elle ne pourrait donc en aucun cas être la toute première cellule, puisqu'elle ne peut survivre seule. En terme de production aléatoire, c'est tout de même énorme. Une séquence spécifique de cent soixante mille lettres qui code pour cent quatre-vingt-deux séquences très spécifiques d'acides aminés est nécessaire. Imaginons que nous tapons cent soixante mille lettres au hasard, les yeux bandés sur un clavier dont les lettres sont mélangées. Dans quelle mesure le résultat serait-il pertinent d'une façon ou d'une autre ? Cela produirait-il au moins une phrase ? Que dire d'un livre ? Ou d'un manuel d'instructions pour la construction d'un robot ? (De préférence un robot qui peut se dupliquer tout seul.)

    Histoire de proposer une autre analogie toute simple, considérons la proverbiale aiguille dans une botte de foin. Si vous pensez qu'il est difficile de trouver une aiguille dans une botte de foin, permettez-moi de vous informer que vous trouveriez plus rapidement un trillion d'aiguilles séparées dans un trillion de bottes de foin séparées que de produire une seule protéine de façon aléatoire. Créer l'ADN d'une petite cellule vivante par le biais d'un improbable concours de circonstances revient à taper cent soixante mille caractères au hasard et se retrouver avec un programme informatique fonctionnel. En fait, il s'avère que j'ai écrit de nombreux scripts informatiques dans deux langages de programmation. L'un d'entre eux a plus de cent cinquante mille caractères, ce qui constitue donc une bonne comparaison. Je puis vous assurer qu'il a fallu beaucoup de travail pour l'écrire et que beaucoup de réflexion, de planification et de nombreuses heures de tests et de débogages ont été investis. Maintenant, et ce qui suit vaut pour la plupart des caractères de ce script, si un seul d'entre eux est changé par un autre, une fonction au moins du script se briserait, et peut-être même tout le script en son entier. Briser tout le script par une seule faute de frappe peut vraiment se produire de bien des façons. Faire en sorte qu'une chose aussi complexe fonctionne nécessite donc beaucoup d'efforts et de planification. L'idée que le script puisse être écrit en tapant au hasard sur les touches du clavier ne serait prise au sérieux par personne.

    RépondreSupprimer
  8. Alors comment qui que ce soit peut prendre au sérieux l'idée qu'une cellule se manifeste par hasard, d'autant que nous n'avons jamais rien vu de semblable se produire, loin s'en faut ? Cette idée ne reflète tout simplement pas du tout notre expérience avec le monde réel. Ce que nous avons observé dans l'exemple de mon script informatique, c'est que toutes les informations sont très précises. Par définition, la spécificité est fondamentalement le contraire du hasard. Alors, comment le hasard peut-il créer de la spécificité ? Il semble plutôt être le pire candidat que l'on puisse envisager pour remplir ce rôle. C'est comme espérer que la gravité nous fasse voler ou supposer que tomber dans la boue nous rende plus propre.

    Mais les choses s'avèrent bien plus compliquées que de simplement obtenir la bonne séquence de nucléotides. Une fois qu'une cellule vivante est complète, la suite peut se dérouler sans véritable heurt en termes de reproduction, mais l'assemblage de la première cellule sans cellule mère est infiniment plus complexe. Partons du principe que d'une manière ou d'une autre nous obtenions de l'ADN muni du code de toutes les protéines. Que faire ensuite ? En fait, plus rien. Nous avons besoin de douze protéines pour transcrire l'ADN en ARN avant de pouvoir fabriquer des protéines. Et pour fabriquer les protéines à partir de l'ARN, il nous faut cent six protéines qui s'acquitteront de cette tâche. Nous avons besoin de ribosomes fonctionnels qui, en plus de contenir environ cinquante de ces cent-six protéines, ont également besoin de plusieurs milliers de nucléotides d'ARN, tous très spécifiques. (Voir l'image en tête de l'article pour apprécier la complexité d'un ribosome.) Nous avons besoin de vingt aminoacyl-ARNt synthétases différentes — des enzymes de centaines d'acides aminés chacune — pour attribuer les bons acides aminés à vingt types différents de molécules d'ARNt. (C'est plus ou moins ce qui détermine le « code » génétique.) Nous commençons à entrevoir toute la complexité de la chose. Nous avons besoin d'un modèle d'ADN pour l'indispensable ARN et toutes les protéines requises, mais plus d'une centaine de ces protéines et une grande quantité d'ARN sont nécessaires pour lire le modèle et fabriquer les protéines. C'est toute la question des origines : « qui de la poule ou de l'œuf est apparu en premier ». Pour que la vie commence de façon accidentelle, plus d'une centaine de processus complexes seraient nécessaires, et puisqu'ils doivent tous apparaître à peu près au même moment, il est peu probable que chacun de ces processus ne soit que le fruit du hasard.

    La structure de l'ARN pour la grande sous-unité ribosomale chez Escherichia coli possède environ trois mille nucléotides. Le ribosome possède également une petite sous-unité d'ARN composée d'environ mille cinq cents nucléotides et de quelque cinquante protéines. Un heureux hasard ?

    Ce scénario laisse apparaître de nombreuses complications, au-delà de la nécessité d'obtenir de façon aléatoire des centaines de milliers de processus de connexion entre les différents éléments dans une séquence appropriée. Par exemple, il y a la chiralité. Les acides aminés se présentent sous des formes gauchères et droitières — images en miroir l'une de l'autre — qui se produisent à peu près à la même fréquence. Pourtant, tous les acides aminés doivent avoir la même chiralité pour qu'une protéine soit fonctionnelle. Et ce n'est pas tout. En fait, toutes les protéines des organismes vivants sont strictement constituées des versions gauches des acides aminés. Cela vous semble-t-il vraiment aléatoire ?

    RépondreSupprimer
  9. Ainsi, pour qu'une protéine se forme, il faut non seulement, disons, deux cents acides aminés dans un ordre précis, mais aussi avec la même chiralité. Les probabilités de n'obtenir la chiralité version droite sont à peu près égales à celles d'obtenir tout face ou tout pile après avoir jeté deux cents pièces — environ une sur 1060, dans ce cas. Le même problème existe également dans l'ADN et son sucre, le désoxyribose. Le sucre se présente également sous les deux formes, et pour que l'ADN fonctionne, il faut que tout les éléments aient la même chiralité. De plus, d'un côté de l'échelle d'ADN, le désoxyribose est tourné de cent quatre-vingt degrés par rapport à celui se trouvant de l'autre côté. En d'autres termes, les deux brins vont toujours dans des directions opposées. Donc, encore une fois, si le processus d'assemblage est aléatoire, comment se fait-il que le résultat soit à ce point spécifique ?

    De plus, les acides aminés des protéines doivent former des liaisons peptidiques. Lorsqu'ils réagissent naturellement, ils forment des liaisons peptidiques et non peptidiques avec à peu près la même incidence. Une fois que le mauvais lien est formé, les processus aléatoires n'ont aucun moyen de le fixer. Ainsi, chaque acide aminé a cinq pour cent de chances d'être le bon (il y a vingt acides aminés), cinquante pour cent de chances d'avoir la bonne chiralité et cinquante pour cent de chances de former une liaison peptidique, mais des centaines d'entre eux doivent s'assembler dans le bon ordre, avoir la bonne chiralité, former la bonne liaison, et la première cellule aurait au moins besoin de plusieurs centaines de ces protéines. N'en produire ne serait-ce qu'une seule reviendrait donc un peu à choisir deux cents personnes au hasard et se retrouver exclusivement avec des femmes, toutes gauchères, toutes âgées de trente-six à quarante ans, et alignées dans l'ordre alphabétique de leur nom de famille.

    La cellule nécessite également une membrane très spécifique dont la fonction détermine avec intelligence ce qui peut ou ne peut pas entrer et sortir de la cellule, un rôle d'une complexité certaine, mais qui relève d'une absolue nécessité pour que la cellule fonctionne et survive. (Un chapitre entier pourrait être écrit sur la membrane cellulaire, sa complexité et ses nombreuses propriétés étonnantes.) Et nous sommes loin d'avoir listé toutes les difficultés liées à ce scénario. Si le processus est censé se dérouler lentement, sur une longue période de temps, nous nous trouvons alors confrontés avec le fait que les éléments se dégradent beaucoup plus vite qu'ils ne peuvent s'assembler. Les protéines sont stables jusqu'à un jour ou deux dans une cellule et l'ARN se dégrade en quelques minutes. Comment ce processus est-il alors censé se produire lentement sur des millions d'années ? Nous pourrions tout aussi bien tenter de faire cuire notre dîner lentement, pendant environ cent jours, avec de nombreux ingrédients qui se gâtent en un jour ou deux. Ou tenter de créer une lente explosion d'une durée d'environ trois heures. Les choses ne fonctionnent tout simplement pas de cette manière.

    La plupart des choses ont tendance à réagir avec d'autres choses pour lesquelles nous avons besoin qu'elles ne réagissent pas, plutôt qu'avec les choses pour lesquelles nous avons besoin qu'elles le fassent. Tout a une plus forte tendance à la dégradation qu'à la création, ce qui est logique si la deuxième loi de la thermodynamique est vraie. Certaines réactions nécessitent de l'énergie fournie par la complexe sophistication de la cellule, mais dans le cas qui nous occupe, nous n'avons pas encore de cellule. Nous essayons d'en créer une.

    RépondreSupprimer
  10. Il existe toutefois plusieurs problèmes distincts qui doivent tous être résolus avant qu'une cellule vivante apparaisse.
    Les éléments chimiques doivent s'assembler de manière totalement improbable, en créant de l'ADN et des protéines.
    Quelque chose doit déterminer le code, c'est-à-dire quels codons codent pour quels acides aminés.
    Les séquences aléatoires doivent produire des protéines fonctionnelles.
    Les protéines et l'ARN doivent accomplir une fonction spécifique.
    Toutes ces fonctions doivent ensemble créer un seul organisme fonctionnel.
    Tout ceci s'avère ridiculement improbable. Chacun de ces problèmes pris individuellement auraient très peu de chances d'être résolus un jour.

    Les éléments chimiques ne s'assemblent pas spontanément pour former de l'ADN ou des protéines. Les problématiques incluent la réactivité avec des éléments chimiques inadéquats, la chiralité, le type de liaisons, la dégradation, les besoins en énergie, etc.

    Le code génétique exige vingt aminoacyl-ARNt synthétases différentes, chacune composée de centaines d'acides aminés. Ce sont tous des processus difficiles à inventer, alors s'attendre à ce que cela se produise de façon aléatoire est tout bonnement stupide. C'est comme s'attendre à ce qu'un langage de programmation se produise de façon aléatoire. Lorsque ces vingt enzymes [les aminoacyl-ARNt synthétases - NdT] sont apparues pour la première fois, aucune intelligence ni idée même de code n'étaient supposés exister. Il est compliqué de créer un code lorsque vous essayez de créer un code. Cela relève de l'impossible quand on n'essaie pas. Personne n'a la moindre idée de l'origine du code génétique. La plupart des évolutionnistes ne se pencheront même pas sur ce problème.

    Le hasard ne crée pas l'ordre, la spécificité, la complexité, la fonctionnalité ou quoi que ce soit du genre. L'idée qu'un ribosome — composé de milliers de nucléotides d'ARN et de douzaines de protéines — capable d'une manière ou d'une autre de savoir comment fabriquer des protéines à partir d'ARN puisse n'être qu'une sorte de « circonstance hasardeuse » est tellement fantaisiste qu'il faut un endoctrinement en bonne et due forme pour ne pas remarquer combien elle s'avère inadéquate dans le monde réel.

    RépondreSupprimer
  11. Nous pourrions toujours essayer de fabriquer un outil qui accomplira une fonction spécifique sans avoir la moindre idée de ce que serait cette fonction, mais cela n'aurait aucun sens. Si une protéine devait être fabriquée accidentellement, ce qui est pratiquement impossible en soi, aucun des éléments qui constituent la cellule ne saurait quoi en faire. Si un ribosome a été fabriqué accidentellement (gros hasard), comment savoir s'il peut traduire l'ARN en protéines ? Comment savoir s'il faut lui donner l'ARN (ou le transcrire pour commencer) alors qu'il n'existait aucune traduction protéique avant cela ? Qu'est-ce qui prédisposerait tout le matériel ARNt à fonctionner avec le ribosome ? Qu'est-ce qui permettrait de savoir où transporter les protéines complètes déjà produites et que faire d'elles si aucune protéine ne s'est jamais manifestée auparavant ? Supposons que l'on donne un four à micro-ondes à un homme des cavernes, à quoi cela servirait-il ? Au mieux, le four deviendrait une table aux finitions parfaitement lisses. Tout comme l'homme des cavernes voudrait savoir quel est cet objet, quelle est sa fonction, ce qu'il doit mettre à l'intérieur et comment fournir de l'électricité, la cellule doit savoir que le ribosome peut traduire l'ARN, qu'il peut utiliser l'ARNt avec les acides aminés fixés par les ARNt synthétases, et tout comme elle doit savoir que le ribosome peut fabriquer les protéines, la cellule doit savoir également où prendre ces protéines et comment les utiliser. Comment les darwinistes traitent-ils ces problèmes ? Ils ne le font pas. Ils les ignorent, c'est tout.
    Ce n'est même jamais ne serait-ce que pris en considération. Comment les milliers de processus actifs dans une cellule sont-ils coordonnés pour produire de la « vie » sans aucune intelligence préalable ? On peut mettre vingt machines sophistiquées dans une pièce, mais si elles ont été remisées là par accident et que nulle intelligence n'est présente, il y a peu de chance qu'il se produise quoique ce soit. La coopération coordonnée de tout ce qui se trouve dans la cellule est époustouflante. La stupidité d'attribuer ces processus au hasard l'est encore plus.

    Toutes les tentatives pour résoudre ce casse-tête n'ont fait que déplacer les problèmes d'un endroit à un autre. Par exemple, l'hypothèse du « monde à ARN » suggère que l'ARN serait le précurseur de l'ADN et des protéines, qui se seraient eux-mêmes manifestés ultérieurement. Mais il n'existe aucune méthode viable et durable pour y parvenir, et cette hypothèse n'élimine presque aucun des problèmes décrits ci-dessus. Qu'un ARN stable puisse subsister plus de quelques heures n'est qu'un fantasme. Qu'un ARN puisse s'auto-répliquer reste à découvrir et n'est qu'une hypothèse chimérique. L'« évolution » de l'ARN en ADN n'existe que dans certains esprits fantasques. Rien de tout cela ne s'est jamais produit et encore moins de façon aléatoire dans la Nature — même si les scientifiques font de leur mieux pour que cela se produise en laboratoire.

    RépondreSupprimer
  12. Ce genre d'hypothèse ridicule n'existe dans ces esprits que pour des raisons de congruence idéologique : « Il nous faut une théorie de la vie surgissant par hasard parce que notre croyance dans le matérialisme [en tant que doctrine qui ramène toute réalité à la matière et à ses modifications en rejetant l'existence d'un principe spirituel - NdT] est inébranlable ». Et pour cela, ils sont prêts à ignorer d'innombrables problèmes en faveur d'une faible probabilité pour que l'une de ces idées absurdes puisse potentiellement fonctionner. Ce n'est pas le cas, aucune ne fonctionne. Il n'y a pas de solution en vue et il n'y en aura jamais sous l'étendard matérialiste. « Les choses sont arrivées par hasard parce que le matérialisme est vrai » est tout aussi désuet que « Dieu a tout créé parce que la Bible le dit ». Les deux idées sont basées sur la foi et non sur la science. Si nous voulons un jour obtenir de vraies réponses, ce genre de survivance vieillotte doit cesser.

    Voir ici pour plus d'informations sur les problèmes liés à l'origine de la vie [en anglais - NdT].

    L'évolution

    Sans tenir compte du problème de l'origine en tant que telle, nous devons encore expliquer comment on passe des bactéries à tout le reste. Quelle en est la probabilité ? Nous devons faire la distinction entre deux choses : d'une part les petites mutations qui mènent à l'adaptation, et d'autre part la création de nouveaux gènes qui conduiraient aux grands changements nécessaires à la création de différentes espèces, genres et autres rangs supérieurs dans la hiérarchie du vivant. Nous pouvons les appeler micro-évolution et macro-évolution. Il est d'ailleurs assez incompréhensible que la plupart des évolutionnistes échouent complètement à faire la distinction entre les deux. En quoi la différence est-elle significative ? Eh bien, une simple adaptation est à peu près aussi facile que d'apprendre à faire du vélo. La simplicité de créer de nouveaux gènes s'avère à peu près aussi facile que l'écriture accidentelle d'un article scientifique par un écureuil. Nous attendons encore que cela se produise. Pourtant, nous voyons régulièrement des gens comme Richard Dawkins prétendre que le simple fait d'accumuler des petits changements fera l'affaire, ignorant complètement la question des nouveaux gènes — entre autres choses comme le simple bon sens.

    RépondreSupprimer
  13. Sans nouveaux gènes, les bactéries resteraient à jamais des bactéries. Pas de nouvelles espèces, pas de nouveaux organes, pas d'évolution. Des nouveaux gènes sont essentiels pour que puisse se produire tout ce qui est déterminant. Un gène est une section d'ADN qui code pour une protéine. Il s'agit donc d'obtenir de nouvelles protéines. Le gène est le manuel d'instruction — et pour faire une analogie, on peut le voir comme une séquence de une seconde et zéro seconde [le gène] transcrite dans un fichier mp3 [la protéine]. La haute spécificité dont la protéine a besoin pour fonctionner est la raison même pour laquelle il n'est pas possible d'obtenir une nouvelle protéine étape par étape. Entre autres processus, une protéine doit se plier correctement. Si elle se plie incorrectement ou pas du tout, elle n'est d'aucune utilité. Quels sont les facteurs requis pour qu'une protéine se plie correctement ? Eh bien, pour commencer, elle doit avoir une longueur d'au moins soixante-dix acides aminés, sans lesquels elle ne se pliera pas du tout. Il s'avère donc absurde de dire que son évolution une petite étape à la fois est possible. Ça ne l'est pas. Un acide aminé nécessite trois nucléotides pour le coder, donc soixante-dix acides aminés signifie une séquence de deux cent-dix nucléotides dans l'ADN. Par conséquent, la plus petite étape dans cet exemple consiste à obtenir accidentellement une séquence d'environ deux cents lettres qui coderont pour quelque chose de très spécifique, ce qui n'est vraiment pas petit du tout. Vous pouvez essayer de taper sur votre clavier deux cents lettres au hasard et voir à quelle fréquence cela produira des phrases ou du code informatique. (Quoique cela devrait s'avérer probablement plus facile ensuite. Il suffit d'ajouter progressivement plus de caractères de façon aléatoire, un à la fois, jusqu'à ce que vous finissiez par écrire une suite à Hamlet ou à Windows 25. L'une ou l'autre est acceptable.)

    Une protéine pliée. Chaque petite boule bleue est un acide aminé. Le site actif doit contenir les bons acides aminés dans une configuration correcte afin d'effectuer la mission qui est la sienne.

    Mais bien sûr, cela ne s'arrête pas là. Le gène a également besoin d'une séquence de contrôle qui détermine quand et où produire la protéine, donc une autre partie spécifique de l'ADN doit bien exister pour effectuer cette séquence de contrôle sans laquelle un gène est inutile, tout autant que l'est une séquence de contrôle sans gène. Si l'un(e) apparaît sans l'autre, il(elle) se dégradera par des mutations dommageables, ce qui survient assez fréquemment. (Et en fait, les mutations s'accumuleront plus vite que d'habitude parce que la sélection naturelle n'a aucune raison de les éliminer, puisque l'ensemble n'a encore aucune fonction. Si l'on y pense, la destruction a lieu avant même que le nouveau gène soit complet, donc en fait et avant toute chose, la construction ne sera jamais achevée.) Il faudrait donc que le gène et la séquence de contrôle apparaissent à peu près de façon simultanée.

    RépondreSupprimer
  14. Même la probabilité que ces deux processus apparaissent de façon synchrone — en supposant à tort qu'aucun des deux n'est en soi compliqué — est vraiment faible. C'est comme fabriquer accidentellement un nouveau composant pour un ordinateur et en même temps écrire accidentellement des pilotes de périphérique pour l'utilisation de ce même composant. Imaginez que vous êtes assis au travail et que vous dites soudain : « Oh, je viens de construire un truc. Je ne sais pas ce que c'est, mais cela pourrait bien aller dans un ordinateur ». Et votre collègue répond : « Oh, vraiment ? Je viens juste d'écrire un code. Je ne sais pas à quoi il sert, mais cela pourrait bien servir de pilote de périphérique pour quelque chose. Essayons de voir si cela fonctionne avec votre truc. » Et puis, bien sûr, ça fonctionne. L'évolution de l'ordinateur juste sous vos yeux.

    Mais revenons à la réalité. Rappelons-nous que rien dans l'organisme n'est censé avoir la moindre idée de ce qu'il faut faire avec le nouveau gène, tant est qu'il en émerge un. Nous avons besoin de deux accidents très improbables qui correspondent parfaitement l'un à l'autre. C'est en soi un préalable absurde à la survenue des mutations aléatoires. Mais ce n'est que la pointe de l'iceberg.

    En ce qui concerne la probabilité que l'évolution existe, une des questions les plus cruciales à se poser est la suivante : Quelles sont les probabilités de créer au hasard une séquence nucléotidique qui produira une chaîne d'acides aminés qui se pliera en une protéine capable d'accomplir sa mission ? Douglas Axe a consacré beaucoup de temps pour découvrir la réponse. Selon ses recherches, pour une séquence de cent cinquante acides aminés, une seule de ces séquences sur 1074 se plierait. Une seule de ces séquence possibles sur 1077 — un suivi de soixante-dix-sept zéros — sera capable d'accomplir sa mission intrinsèque. Le nombre d'atomes dans l'univers entier est estimé à environ 1078-1082, le résultat est donc relativement similaire. Pour imaginer ce que cela signifie, voyons les choses de la façon suivante : sur toutes les cent cinquante séquences d'acides aminés possibles, l'éventualité d'en trouver une de façon aléatoire qui fonctionne est à peu près la même que si vous et moi nous étions téléportés à deux endroits aléatoires dans tout l'Univers pour nous rencontrer. Ça n'arrivera pas. Et nous ne parlons ici que de la probabilité de produire une protéine relativement courte.

    Mais puisqu'il ne s'agit là que d'un seul essai, voyons maintenant quelle est la quantité d'essais dont nous disposons. Il y a eu environ 1017 secondes depuis le début de l'Univers. Si l'on compte pour cette protéine un essai chaque seconde depuis le début, la probabilité serait d'une sur 1077/1017, soit une sur 1060. L'impossibilité demeure. Et si nous disposions d'un milliard d'essais par seconde ? Nous obtiendrions un essai sur 1051, mais cela ne nous rapproche pas vraiment d'une probabilité réaliste. Il nous faudrait environ 1060 tentatives par seconde pour en obtenir une. La Terre n'a même pas assez de ressources pour ça. En fait, des calculs ont été faits par Stephen Meyer, David Swift et d'autres pour découvrir si l'utilisation de la puissance de l'Univers tout entier serait utile. Ces calculs comprenaient l'utilisation de tous les atomes de l'Univers, tout le temps disponible — 13,8 milliards d'années — et autant de tentatives par seconde que le permettent les lois de la physique. C'est bien sûr loin d'être possible d'un point de vue réaliste. La vie sur Terre ne disposait alors que des atomes des océans — ou quoique soit ce qu'il y ait vraiment eu à cette époque-là — avec lesquels œuvrer, ce qui est loin d'être l'équivalent de tous les atomes de l'Univers.

    RépondreSupprimer
  15. Les réactions nécessaires prennent du temps, il est donc absurde de penser qu'il pourrait y avoir des billions et des billions d'essais chaque seconde. Mais même avec toute la puissance théoriquement disponible, le résultat obtenu était loin de ne serait-ce qu'approcher une probabilité réaliste d'obtenir quelque pertinence que ce soit.

    Si les probabilités sont de une sur 1077 pour une séquence de cent cinquante acides aminés, alors pour mille cinq cents acides aminés, c'est à peu près une sur 10770, et pour quinze mille, une sur 107700. (Les calculs ne fonctionnent probablement pas exactement comme ça, mais plus ou moins un billion de fois ne fait pas vraiment de différence ici.) En aurions-nous besoin d'autant ? Malheureusement, oui. La plupart des protéines ont des centaines d'acides aminés, la moyenne est d'environ quatre cents à cinq cents, beaucoup plus que cent cinquante, et les plus longues connues en ont plus de trente mille. Cela va donc bien au-delà de la simple sélection d'un atome spécifique dans l'Univers. Il n'existe même pas quoique ce soit qui nous permette de comparer des probabilités aussi faibles. C'est comme dire, « Je pense à un nombre entre 10 et 1010000 (un suivi de dix mille zéros). Devine lequel ! ». Personne n'essaierait même si l'écart allait de un à un million, c'est-à-dire six zéros. Ces probabilités sont totalement écrasantes.

    Pour ceux qui sont perturbés par les mathématiques, j'ai décidé d'écrire 1077 :

    100,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000

    Si vous avez essayé autant de fois, il est possible que vous obteniez une protéine de cent cinquante acides aminés. Copiez/collez l'ensemble de tous ces zéros dix fois pour obtenir 10770.

    Un autre exemple pour ceux qui ont des difficultés à compter serait le suivant : imaginez que je suis en voyage dans un endroit quelconque de cette planète, que je trouve un livre par hasard quelque part, que je l'ouvre à une page au hasard, et que j'encercle au hasard une lettre à l'encre bleue. Puis à votre tour vous voyagez dans un endroit quelconque de cette planète, vous trouvez un livre par hasard quelque part, vous l'ouvrez à une page au hasard et vous encerclez au hasard une lettre à l'encre rouge. Quelle est la probabilité que la même lettre à la même page du même livre soit maintenant entourée d'encre bleue et d'encre rouge ? Seriez-vous prêt à parier sur le fait qu'on choisirait la même lettre à la même page dans le même livre ? Si une personne croit en l'évolution, ce serait le genre de probabilité sur laquelle elle ficherait son billet.

    Normalement, si une théorie scientifique est confrontée à ce genre de situation, nous savons qu'elle n'a aucun sens et que nous devons la jeter aux orties et chercher autre chose. Les probabilités que le Père Noël existe vraiment et qu'il vive au pôle Nord sont plus grandes. Trouver une aiguille, non pas dans une botte de foin mais dans notre galaxie, est un jeu d'enfant comparé aux probabilités de l'évolution. Gagner à la loterie chaque mois pendant un an serait plus facile. Tout le monde sait que placer son espoir dans une chose aussi improbable serait tout à fait stupide, sauf les évolutionnistes. Pourtant, l'évolution ne peut se produire que si de telles probabilités sont résolues avec le temps, tout le temps — des millions de gènes ont dû exister dans l'histoire de la Terre — et les darwinistes n'y voient aucun problème. Que l'évolution soit prise au sérieux par quiconque connaît suffisamment bien le sujet se révèle très singulier.

    RépondreSupprimer
  16. Les darwinistes s'attardent de façon irrationnelle sur la notion que de très petits étapes et assez de temps peuvent tout résoudre. Mais nous avons vu que même tout le temps du monde est insuffisant, loin s'en faut, et que les petites étapes sont impossibles pour ce qui concerne les nouveaux gènes. C'est comme penser que l'on peut fabriquer un marteau à partir d'un morceau de bois par petites étapes. C'est impossible. À un moment donné, on a besoin de quelque chose qui n'est pas du bois — comme l'acier — et cela représente une grande étape, quelle que soit la façon dont on la considère. Il n'est pas possible de transformer un poisson en ours, pas plus qu'on ne peut transformer du bois en acier. Pour dire le vrai, les scientifiques se moquent des alchimistes qui croient pouvoir transmuter le plomb en or, mais c'est pourtant bien plus réaliste que de transformer un poisson en ours. Qui est le crétin médiéval primitif ici ?

    Voici une animation de la réplication de l'ADN par l'ADN polymérase montrant avec précision la fonction de toutes ses sous-unités :

    Pour effectuer le processus décrit dans l'animation ci-dessus, trente-deux protéines complexes sont nécessaires. Selon les vrais adeptes de la théorie de l'évolution, ce que vous voyez ici est un accident de parcours. C'est juste le résultat d'une collision de stupides atomes entre eux.

    Mais allons plus loin et ignorons même ces problèmes pendant une minute. Disons que de nouveaux gènes peuvent être créés avec la même facilité que celle des mutations se produisant dans les gènes existants. Maintenant, si les oiseaux ont évolué à partir des dinosaures, alors comment les ailes ont-elles évolué une étape à la fois — en ignorant la problématique des gènes ? Tout d'abord, nous devons prendre conscience qu'absolument rien dans l'organisme n'essaie de produire une aile. Chaque étape menant à une aile est un accident. Par conséquent, l'organisme pourrait accidentellement construire des centaines d'autres choses. Une aile pourrait avoir besoin de milliers de mutations. Pour chaque mutation menant à une aile, il en faudrait alors des centaines ou des milliers qui mènent à autre chose, parce que l'aile n'est pas un but en soi — il n'y a pas de but du tout. Si l'on obtient vingt mutations qui aboutissent à une aile, il est bien possible de ne jamais en obtenir une deuxième. Comme je l'ai dit, rien n'essaie de produire une aile. Il n'y a pas de plan, pas de but. En attendant, nous pourrions aussi avoir vingt mutations menant à toutes sortes d'autres résultats. Alors comment est-il possible que nous nous retrouvions avec cent pour cent d'une aile, et zéro pour cent de quoi que ce soit d'autre, de quoique ce soit d'inachevé ? C'est un résultat insensé. Nous devrions être en mesure d'observer une multitude de choses inachevées partout parce que l'évolution devrait toujours être au stade intermédiaire d'un processus. Et non seulement nous ne n'observons rien d'inachevé, mais nous n'observons même pas de versions inachevées d'ailes et d'autres choses qui existent aujourd'hui, ni dans les archives fossiles ni dans notre environnement.

    RépondreSupprimer
  17. Voici un autre point de vue. « Si nous avons évolué à partir de singes, pourquoi y a-t-il encore des singes ? » (Oui, oui, nous avons évolué d'un « ancêtre commun » aux singes et pas à partir de « singes ». Mais cet ancêtre était bigrement simiesque de toute façon, alors tais-toi, Dawkins.) C'est en fait facile à expliquer. Imaginez que les Nord-Coréens évoluent vers quelque chose qui n'est plus humain — quelque chose de mieux, bien sûr. Comment cette évolution affecterait-elle les Sud-Africains ? Ce ne serait pas le cas — c'est une évolution strictement propre à l'hémisphère Nord. Et une fois que la nouvelle espèce existe, il ne devrait pas y avoir de métissage. Toutefois, et tant est que cela se produise, la plupart des humains resteraient humains. Si quelque chose de nouveau apparaissait, l'ancienne version ne disparaîtrait généralement pas pour des raisons géographiques ou autres. Il y aurait des populations distinctes dans des endroits distincts. Et si certains Nord-Coréens déménageaient et se mariaient ailleurs au milieu du processus de cette évolution, il y aurait des hybrides à toutes les étapes possibles. Si l'ensemble de la population ne se métissait pas régulièrement — évoluant donc comme un tout — toutes les étapes nécessaires existeraient d'une façon ou d'une autre et seraient observables. Si l'évolution est aléatoire, alors elle peut être bloquée à n'importe quel stade dans divers lieux géographiques. Parce que si l'évolution vers une nouvelle forme signifiait la fin de l'ancienne forme, il n'y aurait toujours qu'une seule espèce, mais ce n'est de toute évidence pas ainsi que cela fonctionne. Non seulement les singes existent, mais les bactéries aussi.

    Pour cette raison, il devrait y avoir une abondance d'espèces dont les ailes et à peu près n'importe quoi d'autre sont à moitié évoluées. Si ces espèces ne sont pas observables autour de nous, nous devrions au moins les voir dans le registre fossile. Mais ce n'est pas le cas. Il n'y a pas d'oiseau avec un demi-bras ou une moitié d'aile — encore moins sur un ratio de 20/80 ou 40/60, et toutes les autres possibilités — ou avec une demi-bouche ou une moitié de bec, ni d'éléphant avec un demi-nez ou une moitié de trompe, etc. Cette précision des résultats issus de processus aléatoires est inexplicable. Si les processus évolutifs sont lents, il devrait y avoir une gamme complète d'intermédiaires non seulement dans les fossiles, mais nous devrions aussi pouvoir les observer tout autour de nous.

    Bien sûr, les évolutionnistes croient que la sélection naturelle est fondamentalement le Jésus de l'évolution et qu'elle peut tout faire, mais ce n'est que balivernes. Tout d'abord, la sélection naturelle ne peut agir que sur ce qui se manifeste réellement. Nous avons vu que la plupart des événements requis ne peuvent en aucun cas se produire. Et puis, même si un petit changement apparaissait, la sélection naturelle ne pourrait rien y faire. Un pour cent d'un nouvel organe — une énième idée bizarre en soi — ne nous donnera pas plus de descendants que les personnes qui nous entourent. La sélection naturelle ne tuera pas toute la population si un seul spécimen « évolue » à hauteur de un pour cent avec une ramure de cerf. Tout comme la sélection naturelle ne supprimera pas ceux qui ont vingt-quatre pour cent de ramure de cerf dès qu'un ratio de vingt-cinq pour cent de la même ramure apparaît dans la population. Même dans un monde où les ramures de cerf sont à cent pour cent, les individus qui n'ont que dix pour cent ou pas de ramure du tout peuvent survivre et se reproduire. Et tandis que certains commentateurs polis pourraient dire qu'il est « très improbable » que la sélection naturelle puisse résoudre de si minuscules différences, j'ai le sentiment que nous devrions utiliser un langage plus précis et affirmer clairement qu'une telle idée est tout simplement crétine.

    RépondreSupprimer
  18. Proposer que la sélection naturelle puisse distinguer deux choses qui sont différentes de 0,01 % est complètement stupide. La variation naturelle entre les spécimens survivants lui est de plusieurs ordres de grandeur supérieur. Il n'y a pas de sélection pour une mutation unique à moins qu'elle n'ait un impact énorme sur la survie, ce qui ne peut se produire que sous un stress environnemental massif. Sinon, les non-mutants survivent très bien.

    C'est aussi faire preuve d'une myopie et d'une stupidité incroyables que de supposer qu'il existe un cheminement viable, étape par étape, entre deux choses. Comment passer d'un four à micro-ondes à un bulldozer, une étape à la fois, chaque étape étant plus utile que la précédente ? Selon vous, quel serait le point médian entre un four à micro-ondes et un bulldozer ? Il m'est impossible de l'imaginer. Non seulement la sélection naturelle s'avère quasiment inutile pour l'évolution, mais de fait, elle ferait également obstacle à la macro-évolution. On ne peut pas continuer à améliorer un four à micro-ondes tant qu'on n'a pas un bulldozer, et on ne peut pas continuer à améliorer un poisson tant qu'on n'a pas un ours. Pour ces exemples, les résultats logiques d'améliorations progressives sont un très bon four à micro-ondes et un très bon poisson. Il n'y a pas de cheminement étape par étape vers un bulldozer, et il n'y a pas de cheminement étape par étape vers un ours.

    Après avoir effectué ces différentes opérations arithmétiques, nous pouvons rapidement revenir à l'origine de la vie. En 1983, Sir Fred Hoyle a procédé à des calculs de probabilités relatifs à la production des protéines nécessaires à un simple organisme unicellulaire dont la résultante est d'une probabilité sur 1040000. Douglas Axe a procédé à ses propres calculs plusieurs décennies plus tard avec une résultante d'une probabilité sur 1041000. Ça fait quarante et un mille zéros. Il faudrait une demi-heure rien que pour écrire ce nombre.

    C'est donc environ une probabilité sur 1041000 pour l'origine de la vie, et à peu près n'importe où sur l'échelle d'une probabilité sur 1050 à 1015000 pour les protéines simples, et il nous en faut des millions. Rien que pour l'évolution toute entière, il faudrait multiplier tous ces nombres. Et bien sûr, toute une panoplie d'autres processus seraient nécessaires. L'intégralité de la probabilité de l'évolution serait de 0,000000000000...???....0000000001 %, où les trois points d'interrogation garniraient une bibliothèque entière de livres remplis de zéros. Ce pourrait encore être « théoriquement possible », mais physiquement impossible puisque, comme nous l'avons vu, l'Univers entier n'a pas assez de temps et d'atomes pour triompher de ces probabilités.

    RépondreSupprimer
  19. Certains évolutionnistes font une drôle de chose pour triompher de cette improbabilité : ils invoquent un multivers. Si une quantité infinie d'univers existe, alors le nombre de tentatives pour assembler la vie de façon aléatoire est infini. Donc, et aussi improbable que cela puisse être, n'importe quoi pourrait se produire n'importe où. Plutôt rusé, hein ? Cependant, si la seule façon de faire fonctionner une théorie est d'invoquer un concept qui fait littéralement fonctionner n'importe quoi, cette théorie ne repose sur rien et ses défenseurs sont des idiots ou plus désespérés que les créationnistes.

    Alors, que requiert la croyance en l'évolution ? D'être nul en maths et en biologie.

    Le darwinisme ignore la réalité. La macro-évolution est impossible.

    https://fr.sott.net/article/34296-La-probabilite-de-l-evolution

    RépondreSupprimer
    Réponses

    1. Nous devrions nous intéresser en premier lieu à l'évolution des planètes. Leur gravité. Centrifuge et centripète se confondent. Que serait l'homme aujourd'hui exilé sur la lune ou Mars ? Quels seraient les comportements des cellules ?

      Pourquoi les éléments vivants aux fin-fonds des océans se comportent-ils encore comme des êtres primitifs n'ayant pas lieu de gagner la surface et de sortir de terre ?
      Pourquoi les animaux terrestres sont-ils plus évolués que les marins ?

      L'évolutions intellectuelle dépend-elle de l'éloignement ? Les montagnards sont-ils plus évolués que les habitants des plaines ?

      Supprimer
  20. Patrick Moore fondateur de Greenpeace parle sur... Grennpeace


    Robert Kraychik
    Le Saker Français
    jeu., 07 mar. 2019 09:21 UTC


    Dans un entretien accordé mercredi [6 mars] au Breitbart News Tonight de SiriusXM, Patrick Moore, cofondateur de Greenpeace et ancien président de Greenpeace Canada, a décrit l'idéologie des « éco-fascistes » contemporains comme étant « contre l'humanité ». Il a également déploré le remplacement de l'ancienne pensée « humanitaire » de Greenpeace par une philosophie qui fait de l'humanité « l'ennemi de la nature ».

    Moore a expliqué aux rédacteurs généraux de Breitbart News, Rebecca Mansour et Joel Pollak, comment l'esprit original de Greenpeace qui consistait à célébrer l'humanité a été usurpé par une vision malthusienne anti-humaine :

    « Au milieu des années 1980, Greenpeace s'est éloignée du concept original de paix et de vert, c'est-à-dire de l'environnement et des gens, [pour] sauver la civilisation de la guerre nucléaire — et c'est pourquoi nous avions le souci des gens et une orientation humanitaire et environnementale. C'était le mariage du vert et de la paix, mais quand les années 80 sont arrivées, la paix s'est en quelque sorte perdue et tout ce qu'il restait, c'était Sauvons les baleines et Sauvons la Terre et à partir de ce moment, les humains ont été considérés comme les ennemis de la nature, comme si nous étions trop nombreux et que nous ne devrions pas être autant, et que les gens ne devraient pas avoir d'enfants... Et toutes ces choses qui reviennent avec AOC, maintenant, qui explique aux gens qu'ils ne devraient peut-être pas avoir d'enfants parce que le monde arrive à sa fin. »

    Moore a rappelé son départ de Greenpeace car l'organisation avait adopté une idéologie anti-humaine :

    « Mais je ne crois rien de tout cela : alors au plus haut niveau, j'ai dû quitter Greenpeace à ce moment-là parce que mes co-directeurs poussaient tous ce récit sur les humains qui seraient les ennemis de la Terre. Ça ressemble beaucoup trop au Péché originel pour moi : que toute autre vie soit bonne et que seulement les humains soient mauvais, je n'accepte tout simplement pas ça. Nous venons de la nature, comme toutes les autres espèces, et les humains sont majoritairement bons. Donc, je n'accepte pas ça. »

    M. Moore a fait remarquer que ses collègues directeurs de Greenpeace, au moment de son départ, n'avaient ni titres ni antécédents scientifiques. Il a expliqué :

    « Nous avons essentiellement été noyautés par des extrémistes de gauche, ou des écologistes comme on les appelle parfois aujourd'hui. [...] On a fait beaucoup de bon travail mais ça a mal tourné. »

    La cause explicitement environnementale de Greenpeace est un élément du plaidoyer du Parti démocrate pour mettre fin au « changement climatique », a expliqué M. Moore. Il a souligné que le Green New Deal proposé par la représentante Démocrate Alexandria Ocasio-Cortez illustre le « mélange toxique » entre politique, religion et idéologie, courant à gauche :

    RépondreSupprimer
  21. « Les Démocrates pourraient aussi bien signer un pacte de suicide, non seulement pour leur avenir politique, mais pour l'avenir de l'économie des États-Unis parce que tous ces gens s'agglutinant à ce Green New Deal, qui est un document intégralement et profondément ridicule... Interdire les carburants fossiles dans dix ans... Premièrement, la production alimentaire s'effondrerait, deuxièmement, toute personne qui essaierait de faire entrer de la nourriture dans les villes échouerait, parce que les gens à l'extérieur des villes la capteraient pour eux-mêmes, et les citadins seraient le point de départ [de cette folie, NdSF]. La pourriture commencerait au centre des grandes villes où les gens mourraient de faim après avoir mangé tous leurs animaux de compagnie. En fait, ils se tueraient et se mangeraient mutuellement.

    Ce n'est pas seulement une religion, c'est un mélange toxique de religion et d'idéologie, de politique et de religion. En résumé c'est absolument toxique. [...] Ils sont contre l'humanité. Mais pourquoi des humains seraient-ils contre l'humanité ? Surtout quand nous avons développé une civilisation aussi incroyable. »

    « L'idée que nous sommes en train de tuer la Terre est dingue » a conclu Patrick Moore.

    https://fr.sott.net/article/34300-Patrick-Moore-fondateur-de-Greenpeace-parle-sur-Grennpeace

    RépondreSupprimer
    Réponses

    1. Cet endoctrinement est en premier lieu merdiatique. Il se commet en hégémoniste afin d'opposer le regard intelligentiel aux trisomiques qui vont jusqu'à parler à l'Assemblée Nationale pour plus de véracité !

      Les scientifiques (exclus des 'COP(21...)') le sont aussi de l'ONU au travers de l'IPCC où - en français - est ajouté le qualificatif d''experts' !!!

      Supprimer
  22. Tuberculose : enfin un espoir !


    18 août 2019


    Quand j’étais en pension chez les curés du diocèse, je fus atteint de tuberculose pulmonaire avec 7 d’autres élèves de ma classe. Ces cons de curés avaient accepté un élève externe dont le père était notoirement tuberculeux, peut-être par charité, mais le résultat fut catastrophique pour mes camarades ainsi que pour moi-même. Six mois de sanatorium réduisirent à néant une année scolaire et le rattrapage fut difficile, très difficile. De retour dans cette même pension, nourrissant une haine irréductible à l’égard de ces curés, je fus finalement poliment contraint de bien vouloir regagner ma famille et de ne plus jamais faire parler de moi. L’affaire avait alimenté les gazettes d’autant plus que le propre fils du maire de la ville avait été contaminé – ça faisait vraiment désordre – mais quelques liasses de billets judicieusement distribuées firent que ce scandale fut étouffé. Le diocèse s’en sortit sans aucun blâme sauf que 8 élèves de la même classe de troisième virent leur cursus scolaire fortement perturbé.

    À l’époque, il y a près de 60 ans, la tuberculose se soignait très bien avec de l’isoniazide et des renforts de streptomycine au cas où la maladie évoluait trop rapidement, ce qui fut mon cas. Un bon tiers de mon poumon droit commençait à être sérieusement attaqué et le poumon gauche était menacé. La streptomycine, toujours à cette époque, contenait une impureté qui rendait sourd et pour pouvoir subir ce traitement de choc il fallait que le médecin du sanatorium suive presque quotidiennement l’acuité auditive des malades sous « traitement strepto » sans parler des radioscopies hebdomadaires pour suivre l’évolution de la maladie. J’ai encore aujourd’hui de la peine à évaluer les doses de rayons X auxquelles je fus soumis durant ce séjour en sanatorium. Bref, progressivement la tuberculose fut considérée dans les pays dits développés comme ayant disparu ou du moins maîtrisable avec les thérapeutiques d’alors. Même le vaccin BCG, ayant pourtant fait ses preuves d’efficacité, fut abandonné ou du moins rendu non obligatoire : il ne générait pas assez de profits pour les laboratoires pharmaceutiques qui le produisaient, c’est vrai, je n’invente rien. Le dépistage systématique de la tuberculose avec le test à la tuberculine a ensuite été jeté aux oubliettes. Il n’y a plus de dépistage dans les écoles.

    Ces erreurs de prise en charge précoce de la tuberculose ont conduit fatalement à l’apparition de résistances aux antibiotiques. Si le diagnostic de cette maladie est établi aux stades initiaux de l’infection le traitement ne nécessite que peu de substances artificielles mais puisque les autorités en charge de la santé dans les pays développés ont – trop – rapidement considéré que la tuberculose était une maladie d’un autre siècle, celui d’Emile Zola, alors aujourd’hui le bacille de Koch est devenu résistant à tous les antibiotiques connus. Il y a 30 ans, bien longtemps après avoir moi-même été atteint par cette maladie, les patients furent alors soignés chez eux avec de fortes doses de substances chimiques et les sanatoriums de montagne se vidèrent, quoi de plus propice pour que les bacilles deviennent résistants et que la maladie se disperse !

    RépondreSupprimer
  23. La tuberculose tue chaque année 1,6 millions de personnes dans le monde (dernière statistique datant de 2017) et le tiers de ces morts étaient atteints par un bacille résistant à tous les antibiotiques connus. Les projections de l’OMS mentionnent qu’en 2050 ce seront 10 millions de décès chaque année. Une organisation non mercantile appelée TB Alliance ( https://www.tballiance.org ) a mis au point une nouvelle molécule, le Pretomanid, qui en association avec un ou deux autres antibiotiques (Bedaquiline ou Linezolid) a montré lors des essais cliniques préliminaires concernant 100 patients volontaires souffrant de tuberculose réfractaire à tout traitement antibiotique que 95 d’entre eux avaient montré très rapidement des signes prometteurs de régression de la maladie. La FDA américaine (Food and Drug Administration) a accordé son autorisation de mise sur le marché compte tenu de l’urgence sanitaire que représente aujourd’hui la tuberculose. Cette autorisation rapide est exceptionnelle dans la mesure où les patients sont des malades et sans que des essais cliniques prolongés aient pu être organisés. La précédente autorisation de la FDA pour une drogue anti-tuberculose eut lieu il y a plus de quarante ans … Pour l’anecdote le produit découvert par TB Alliance s’appelle Pretomanid car les premiers tests ont été conduits à Pretoria en Afrique du Sud.

    https://jacqueshenry.wordpress.com/2019/08/18/tuberculose-enfin-un-espoir/

    RépondreSupprimer
  24. La liste de haine de Nature Communications - une histoire qui bouge


    17 août 2019
    Par Christopher Monckton de Brenchley


    La toujours merveilleuse Joanne Nova a été en contact depuis l'Australie. Elle a brillamment redessiné la première page de Nature. C’était tellement bien fait que lorsque j’ai vu cela, j’ai eu pour premier réflexe que c’était authentique, et je suis allé directement sur le Web pour trouver plus de détails sur l’histoire de Nature dans «Les scientifiques sur la liste noire, vous devez les ignorer».

    Pendant ce temps, l'un des nombreux scientifiques éminents figurant sur la liste de haine largement diffusée de Nature Communications m'a envoyé une copie de sa propre plainte à ce journal "savant". Il écrit:

    «Le 13 août 2019, AM Peterson, EM Vincent et AL Westerling, trois professeurs d'UC Merced, ont publié un article dans Nature Communications. Le document fait référence à des "climatologues", un terme péjoratif. Votre université a publié un communiqué de presse faisant référence à «négationnistes», un terme faisant référence à ceux qui remettent en question la validité historique de l’Holocauste.

    «Je ne doute pas que l’Holocauste ait eu lieu. J'ai été l'un des premiers à montrer que le changement climatique est réel et créé par l'homme. J'ai participé à plusieurs rapports du Groupe intergouvernemental sur l'évolution du climat et conseillé la création et la conception de politiques climatiques au Royaume-Uni, aux États-Unis et en République d'Irlande.

    «J’ai donc été surpris que vos collègues me traitent de« contrarian »et de« denier ».

    «Les auteurs, employés de UC Merced, (a) ont collecté des données à mon sujet sans mon autorisation; et (b) diffusé lesdites données sans anonymisation.

    «Je pense aussi que c) l'utilisation de termes péjoratifs a violé votre code d'éthique.

    "Je soulève par la présente une plainte concernant les points a), b) et c)."

    Dans un autre courrier électronique, la plaignante souligne avec une grande utilité que la collecte de données sur des personnes sans autorisation et la diffusion de ces données sans anonymisation sont des infractions au sens de la loi de protection des données de 2018. Je ferai certainement bon usage de ces informations, car Nature Communications est publié à Londres, mais l'éditeur a son siège à Berlin.

    La plaignante explique que la loi de 2018 met en œuvre la directive de nos maîtres non élus sur la protection générale des données et que, par conséquent, l'allemand dispose d'une loi similaire à la législation britannique.

    Nous avons à présent un avocat qui nous a conseillé, de sorte que, si Nature Communications et l’Université de Californie à Merced ne répondent pas de manière substantielle à nos lettres de plainte, la police et d’autres autorités en seront informées et les poursuites engagées. pour fraude, diffamation, violation du droit à la vie privée et violation de la loi sur la protection des données.

    En relisant le communiqué de presse scandaleusement scandaleux vantant la prétendue «étude» et publiée par «l'Université», j'ai écrit à l'auteur du communiqué de presse, avec copie au chancelier ad interim, comme suit:

    RépondreSupprimer
  25. Madame,

    Avis d'intention de poursuite: fraude et diffamation de votre part

    Mon attention a été attirée sur un communiqué de presse frauduleux et diffamatoire que vous avez rédigé, que vous avez largement diffusé et que vous avez posté sous votre nom sur le site Web de «l'Université» de Californie à Merced. Vous avez notamment diffusé le communiqué de presse parmi les suivants: The Straits Times, Yahoo.com, fil de presse français, Newsweek, Hurriyet (Turquie), The World News Net, msn.com, Spacedaily.com, japantoday.com, flipboardcom, le Brussels Times, Malaysia News, Today (Lituanie), thenews.com, Egyptindependent.com, desmog.co.uk, The Daily Star (Libéria), The Business Times, Agence France Presse, Foodevolution.com, phys.org, 24matins .uk, jen.jiji.com, The Youth Times, goldrushcam.com, Cosmos Magazine, Yahoo News Australie, etc., etc., etc.

    Dans le communiqué de presse incriminé, vous et moi-même et de nombreux autres climatologues, sommes en désaccord avec vous sur la question du réchauffement de la planète et dont les noms figurent dans les documents liés au communiqué de presse sous le nom de «négateurs du changement climatique». Ce terme, avec son caractère délibéré et malicieux de comparaison péjorative avec la négation de l’Holocauste, est répété au moins cinq fois dans votre communiqué de presse - une indication de l’étendue et de la profondeur de votre malice.

    Vous nous décrivez également comme des personnes qui «rejettent le changement climatique», ont une «légitimité qu’elles n’ont pas gagnée» et «manquent de formation scientifique», comme «une poignée relative de non-experts», comme «non scientifiques», comme ayant « très maigre ", comme" pas dans la même ligue avec les meilleurs scientifiques, que "pas même dans la ligue du climatologue de carrière moyenne", comme "répandre la désinformation" ou "la désinformation amplifiée" (ce dernier terme étant en avant et en couleur dans une grande sous-rubrique en caractères gras, puis répétée plus tard dans le texte), comme «ne pas accepter les résultats de la climatologie», comme ayant «des jugements biaisés… même devant des faits documentés», comme sujet aux «indices politiques, préjugés idéologiques , des visions culturelles du monde et même des expériences météorologiques personnelles ", comme disant" le changement climatique n'existe pas ", comme un" argument non crédible ou un moyen d'équilibrage ", comme coupable de" faux équilibre "et de" désinformation ", comme de" climat contrarians ", coupables de" fausses déclarations aiguës d'informations visant à induire le public en erreur à des fins politiques "et de" efforts de désinformation généralisés ", implicitement impliqués dans" une campagne de propagande bien financée en faveur des intérêts conservateurs des combustibles fossiles ", comme" des non-experts présidant à un discours scientifique »et en tant que« contrepoint des climatologues légitimes, expérimentés et disciplinés »à qui on« attribue une crédibilité qu’ils ne méritent pas ».

    RépondreSupprimer
  26. Par cette lettre, je signale que, sous réserve de tout ce que vous pourriez dire dans les sept prochains jours, je propose de vous signaler pour fraude aux autorités de poursuite du Royaume-Uni, où votre communiqué de presse a été largement diffusé, aux États-Unis. où vous avez commis votre fraude, et internationalement à Interpol. J'ai écrit hier au chancelier de votre institution pour attirer son attention sur les mensonges et les fausses déclarations contenus dans votre communiqué de presse et pour l'inviter à le retirer. Je vous adresse maintenant la même demande, car nous ne vous tenons personnellement pas moins responsables que le chancelier de votre "université" des paroles que vous avez écrites.

    Vous devez savoir que, suite à une lettre que j'ai adressée hier à Nature Communications, le journal «savant» dans lequel a été publiée la «étude» «à comité de lecture» faisant l'objet de votre communiqué de presse, ce journal a été supprimé. référence à la prétendue «étude» incriminée depuis sa page d’accueil et a ajouté à la page contenant la prétendue «étude» un paragraphe indiquant qu’elle enquêtait sur «un certain nombre de critiques liées à cet ouvrage» et supprimant complètement la liste des noms des prétendus «négationnistes», y compris mon nom. Un fac-similé de ce paragraphe, tiré du site Web de la revue, est présenté ci-dessous:

    Je vous serais reconnaissant de bien vouloir immédiatement supprimer le lien visible de la page d'accueil de «l'université» vers le communiqué de presse incriminé, et de supprimer ou de modifier le communiqué de presse afin de ne pas tenir compte du fait que les éditeurs du journal dans lequel la prétendue «étude» a été publiée enquêtent sur nos critiques.

    Je vous serais également reconnaissant de publier dans le site Web de votre «université» des excuses, une rétractation et un engagement de ne pas répéter les propos diffamatoires dans les sept jours, en lui accordant une importance égale à celle que vous avez donnée au communiqué de presse incriminé. et le faire circuler non moins largement. Sinon, vous serez considéré comme un complice de ce complot complexe de fraude, comme mentionné ci-dessus, et je pourrai sans préavis engager une procédure pour diffamation.

    Une copie de cette lettre est adressée au chancelier ad interim, qui n'a pas encore répondu à ma lettre. Je dois vous avertir - et lui-même - que les tribunaux jugent répréhensible le fait de ne pas répondre à une lettre avant de prendre de telles mesures.

    Yours faithfully,

    Viscount Monckton of Brenchley

    https://site-de-non-scientifiques

    RépondreSupprimer
    Réponses
    1. (...) «Je ne doute pas que l’Holocauste ait eu lieu. J'ai été l'un des premiers à montrer que le changement climatique est réel et créé par l'homme. (...)
      Viscount Monckton of Brenchley

      Whoôah ! 'Créé par l'homme ??! (et la femme ?).
      Cette phrase en dit long quant au Q.I. du sir Viscount Monckton of Brenchley !

      A savoir que: Les mers & océans rejettent DES milliards de fois plus de gaz toxique que toute l'humanité, les animaux et l'industrie réunis. Et que les saisons (appelée dorénavant 'changements climatique anthropiques'* !! HAHAHAHA !) ne sont QUE l'œuvre ingénieuse (et peut-être terroristique ?) du magma QUI FAIT CE QU'IL VEUT et n'en a RIEN A FOUTRE des climatologues (qualificatif non reconnu comme étant scientifique au même terme que nuageologue, pluitologue ou ventologue) qui se prennent pour des scientifiques !

      *GLOBAL WARMING
      CLIMATE CHANGE
      GLOBAL CLIMATE DISRUPTION
      CLIMATE WEIRDING
      ATMOSPHERIC RADICALIZATION
      CARBON POLLUTION
      ATMOSPHERE CANCER

      Supprimer
  27. Les sceptiques obtiennent 49% de médias en plus, ainsi que d'autres histoires fantastiques de fées de Nature Gossip Mag


    August 17th, 2019


    Les sceptiques sont bannis, rejetés, bloqués et licenciés des principaux médias, mais Nature a un article sur les sceptiques qui reçoivent trop de médias. Les croyants n’ont pas besoin d’être des experts pour contrôler l’agenda des nouvelles, il suffit d’un militant de Greenpeace ou d’une adolescente. Les sceptiques, d’autre part, peuvent être lauréats du prix Nobel, mais la BBC ne leur téléphonera même pas.

    La nature, l’ancien géant de la science, vient de lancer les principes de la science à l’horizon des événements. Ce document est l’argument de l’autorité, transformé en une fausse équivalence et alimenté par des erreurs soigneusement choisies, tant dans la catégorie que dans la catégorisation. Nonsense sur une fusée. Ce n’est pas ce que la science est, ni ce que le journalisme devrait être. Et la nature est censée être les deux. Judith Curry l’appelle la dernière parodie d’application du consensus et le pire journal qu’elle ait jamais vu dans un journal de bonne réputation.

    Nature, publication scientifique, couverture, satire.

    David Evans et moi-même avons reçu une mention sur ce qui est effectivement la liste noire de Nature. Quel honneur ! Non vraiment - il y a 386 grands noms. Encore plus d’honneur est une mention sur le site de Judith Curry, "les blogs dont elle a appris quelque chose". (Par un monstre, mon nom vient juste après Freeman Dyson et Ivar Giaver, lauréat du prix Nobel. Une carrière bien remplie, je vous le dis!) Mais sérieusement, Marc Morano est en tête de la liste noire de Nature, et aucun homme ne le mérite plus. Félicitations Marc !

    Méthodoggogie

    L '«étude» artificielle compare les blogueurs, commentateurs et journalistes à des scientifiques en grande partie universitaires, comme si les deux groupes devaient avoir des citations scientifiques ou des mentions dans les médias comparables. D'une certaine manière, les scientifiques rémunérés obtiennent plus de citations scientifiques et les personnalités professionnelles des médias, davantage de médias. Qui aurait deviné ? Ou plutôt, qui ne pourrait pas ?

    Le rapport entre «autorité scientifique» et «visibilité des médias» est à peu près garanti en sélectionnant des scientifiques disposant d'un financement et en les comparant au groupe de scientifiques licenciés et de faiseurs d'opinion indépendants qui créent leurs propres canaux de médias afin d'obtenir même des médias.

    Il n’y a pas de prétention à la symétrie dans la façon dont les deux groupes ont été choisis: les grands rois médiatiques sans citation du côté des croyants ne reçoivent même aucune mention. Comme Curry le fait remarquer - pas d'Al Gore. Il n'y a pas non plus d'adolescentes montées sur des bateaux. Pas de Leonardo de Caprio non plus. David Suzuki a-t-il réussi ? Bill Nye ? Dur à dire. Apparemment, les informations supplémentaires sont devenues des informations nuisibles dans les 48 heures et ont déjà disparu.

    RépondreSupprimer
  28. Ainsi, après avoir construit une étude dénuée de sens, ils obtiennent des résultats dénués de sens, ce qui semble être l’objectif recherché, car c’est une excuse pour écrire des titres se plaindre du fait que les sceptiques reçoivent trop de supports.

    Le communiqué de presse est ce dont il s’agit.
    «Les médias créent un faux équilibre sur la science du climat, selon une étude»
    Le point clé:

    "Il est temps d'arrêter de donner à ces personnes une visibilité, qui peut facilement devenir une fausse autorité", a déclaré le professeur Alex Petersen.
    - Uni California Merced

    Idéalement, ils mélangent les nouveaux et les anciens supports sous une seule étiquette. La nouvelle "recherche" montre que les scientifiques sceptiques sont partout dans les nouveaux médias, tandis que les scientifiques non sceptiques reçoivent "la même" quantité de mentions dans les médias grand public. (Désolé pour votre café). Ainsi, avec des catégories chargées, des règles artificielles et aucun principe, ils peuvent enfin prétendre que les «médias» interrogent des sceptiques par sens du devoir dépassé. La domination des sceptiques sur les blogs se traduit par des sceptiques qui reçoivent trop de «média».

    Cela joue bien pour leur statut de victime - une autre excuse pour expliquer pourquoi les climatologues ne semblent pas convaincre le monde.

    Purger les médias

    Si seulement ils pouvaient battre les sceptiques dans les débats publics, ils n'auraient pas besoin de tant de règles pour les médias:

    Le bon contrepoint à un climatologue serait un autre scientifique légitime qui pourrait montrer des données concurrentes provenant des mêmes expériences ou indiquer où le premier climatologue a commis des erreurs dans son travail. Demander à un lobbyiste du secteur pétrolier ou à un politicien non expert de répondre à une étude ou à une évaluation examinée par des pairs en affirmant que «le changement climatique n'existe pas» n'est pas un argument crédible ni un moyen de mettre en balance, a déclaré Petersen.

    Puisque les sceptiques sont licenciés, exilés, voire bloqués dans les aéroports, si le débat ne doit être que de simples entraîneurs certifiés et rémunérés, cela mettra fin à tout débat, hein ? Convient aux escrocs et aux climatologues.

    Propagez votre complot ad hom préféré:
    Auteur LeRoy Westerling laisse tomber la pure spéculation

    "Il est bien connu maintenant qu'une campagne de propagande bien financée en faveur des intérêts conservateurs des combustibles fossiles a conduit les médias à positionner les reportages scientifiques sur les changements climatiques comme des reportages politiques plutôt que des reportages scientifiques", a-t-il déclaré. «Les reportages politiques concentrent leur récit autour des conflits et cherchent à mettre en évidence des voix opposées, plutôt que de raconter l'histoire de la science."

    Ceci, a t-il dit, a conduit à un faux équilibre entre les scientifiques et une poignée de négateurs du climat qui sont devenus des commentateurs réguliers.

    RépondreSupprimer
  29. Je pense que la Nature devrait posséder tout ce chemin. En publiant un article aussi déprimant, ils ont donné à tous les auteurs la plate-forme nécessaire pour obtenir des interviews des médias afin de faire valoir ces affirmations sans fondement qu'il n'a aucune preuve à l'appui. Où était leur rigueur ? Bien…

    C'est leur façon élégante de dire que les sceptiques gagnent dans les blogs et les médias sociaux:

    En tenant compte simultanément de l'autorité scientifique de chaque individu, notre analyse quantitative contribue à la littérature sur la communication du CC [changement climatique] en révélant à quel point des voix contrariennes bien connues bénéficient de l'évolutivité des nouveaux médias, en particulier du grand nombre de sources d'informations de second niveau. et les blogs qui ne mettent pas en œuvre des normes rigoureuses d'évaluation de la qualité de l'information.

    … Et que les blogs ne sont pas aussi rigoureux que le pense la nature. Sauf que, bien sûr, ce blog n’acceptera jamais un article aussi pathétique que celui-ci - sauf pour le moquer.

    La rigueur signifie une obéissance complète à 100%

    L’étude qualifie Roger Pielke Jnr de «contrarian» et Bjorn Lomborg, même s’ils acceptent tous les raisonnements scientifiques du GIEC, ils n’achètent tout simplement pas la catastrophe ou la solution. Donc, tout pas en dehors de l'église et pfft - vous êtes parti.

    Roger Pielke l'a déjà signalé. Fabius Maximus se demande si c’est la raison pour laquelle les informations supplémentaires ont disparu ces deux derniers jours. Elles ont été supprimées pendant qu’ils obtiennent des conseils juridiques ou trouvent une meilleure excuse. Les données seront disponibles le 1er janvier de l'année prochaine, longtemps après que les gros titres des médias auront disparu.

    Tweets de @RogerPielkeJr
    Ainsi, @nature a publié un article qui m’a inscrit sur une liste de «contrariens» qui rejettent la science du climat.
    J'ai contribué et défendu le GIEC pendant plus de 25 ans.
    Pourtant, ces frottis passent les examens par les pairs.

    Quel est le remède ici ?
    Lettre ?
    Procès ?
    Autre ?
    Tel BS

    @RogerPielkeJr
    Ce qui est troublant, ce n’est pas la liste des ennemis, ils existent depuis longtemps. Ce qui est troublant, c’est qu’ils sont maintenant blanchis par des revues universitaires et utilisés par des scientifiques et des journalistes pour réduire au silence ou causer tout préjudice professionnel à leurs pairs. C'est vraiment incroyable. Et il fonctionne.

    C’est la science alimentaire du fromage - par William Briggs
    Ce papier est une science du fromage, le genre dont Nature se spécialise de plus en plus. Tout comme le fromage, ce n’est pas un vrai aliment, qui a bon goût, mais qui commence à remonter de façon désagréable vingt minutes plus tard, ce papier a un nom original. mais qui nauséabonde les esprits.

    RépondreSupprimer
  30. Cela ne dit rien de savoir si quelque chose que les contrariens ont dit est vrai ou faux, ou même si un expert scientifique obtient jamais quoi que ce soit. Cela dit seulement, encore et encore, avec des graphismes lisses et une prose démesurée, que les contrariens ne doivent pas être respectés uniquement parce qu’ils ne sont pas dans The Club. C’est un article conçu pour que les auteurs de fromages, ainsi que leurs lecteurs de fromage, se sentent bien.

    Des félicitations à Marcel Croc, John McLean et la fabuleuse équipe de vérification des nomenclatures ici qui méritent de figurer sur la liste noire. Beaucoup d'autres grands sceptiques ont peut-être également manqué l'attention des médias américains ou de la date butoir de 2016. (Rien après la victoire de Trump n'a été inclus, car Trump déforme les champs de gravité ou quelque chose du genre.).

    Si seuls des scientifiques non sceptiques avaient des preuves, ils n'auraient pas besoin de travailler si dur pour garder les vues sceptiques hors des médias

    Autres blogs «Media» sur le sujet: Judith Curry | WattsUp | Fabius Maximus | William Briggs

    Articles sur les médias

    Biais médiatique - ABC et CBS excluent les scientifiques sceptiques pendant 1300 jours
    Les réseaux de médias font état du réchauffement climatique 92 fois, contre une pause mondiale, zéro fois
    Le secret de la BBC exposé: Greenpeace, des activistes et BP décident de ce que les scientifiques "voient" - Hello TwentyEightGate
    Le troisième brise-glace abandonne le sauvetage d'un bateau de scientifiques du climat en Antarctique, le brouillard médiatique, obscur, ne dit pas «climat»
    Richard Black - l'apologiste le plus rapide des scientifiques qui se conduisent mal
    ClimateGate II: Guide pratique pour repérer le journalisme à la chaux - Les 10 meilleures excuses pour les scientifiques qui se conduisent mal
    Le Gardien-le-crédule: aveugle aux dénonciateurs, ignorant les scandales, défenseur du bien-être des adolescentes

    Nature Communications

    Abstrait. Nous juxtaposons 386 opposants de premier plan à 386 scientifiques experts en analysant leurs empreintes numériques dans environ 200 000 publications de recherche et environ 100 000 articles en langue anglaise dans les médias numériques et écrits sur le changement climatique. La projection de ces personnes dans le même contexte facilite la quantification des disparités dans la visibilité des médias et l'autorité scientifique, et l'identification des modèles d'organisation au sein de leurs réseaux d'associations. Nous montrons ici par comparaison directe que les contrariens figurent dans 49% plus d’articles de presse que les scientifiques. Pourtant, lorsque nous comparons uniquement la visibilité dans les principaux médias, nous n’observons qu’un excès de visibilité de 1%, ce qui démontre objectivement l’éviction des sources professionnelles traditionnelles par la prolifération de nouveaux médias, dont beaucoup contribuent à la production et à la consommation de désinformation liée au changement climatique. À l'échelle. Ces résultats montrent pourquoi les climatologues devraient exercer de plus en plus leur autorité dans les discours scientifiques et publics et pourquoi les journalistes et les rédacteurs professionnels devraient ajuster l'attention démesurée accordée aux opposants.

    RépondreSupprimer

  31. L'endroit où une référence irait normalement
    Alexander Michael Petersen, Emmanuel M. Vincent et Anthony LeRoy Westerling (2019) Divergence de l'autorité scientifique et de la visibilité médiatique des scientifiques et des opposants au changement climatique, Nature Communications, volume 10, Numéro d'article: 3502 (2019) |
    Compte Twitter de LeRoy Westerling.

    http://joannenova.com.au/2019/08/skeptics-get-49-more-media-and-other-fairy-fantasy-stories-from-nature-gossip-mag/#more-65778

    RépondreSupprimer
  32. Les dépôts en faillite augmentent parmi les producteurs d'énergie américains, selon un rapport


    par Tyler Durden
    Dim., 18/08/2019 - 19:00


    Selon un nouveau rapport du cabinet d'avocats Haynes and Boone LLP, le nombre de faillites dans le secteur en amont augmente cette année, les prix au comptant de l'énergie restant modérés dans un contexte de ralentissement conjoncturel de l'économie.

    À ce jour, 26 sociétés d'exploration et de production (E & P) ont déposé leur bilan jusqu'à la mi-août pour un total de dettes de 10,96 milliards de dollars. La firme a constaté une augmentation du nombre de faillites en mai, après une correction de 23% des prix du WTI de la mi-avril à la mi-juin.

    - voir graphique sur site -

    En 2018, 28 entreprises E & P ont déposé le bilan, affichant une dette de 13,2 milliards de dollars, tandis que 24 entreprises ont demandé à être protégées en 2017 avec une dette de 8,5 milliards de dollars. La société souligne que les défaillances du patch énergétique gagnent du terrain.

    L'indice américain des prix à la production enregistre une première baisse en deux ans

    "Jusqu'ici cette année, le nombre de dépôts de documents a légèrement augmenté", a déclaré Haynes & Boone.

    - voir graphique sur site -

    Les prix du pétrole et du gaz sont restés déprimés en 2019.

    - voir graphique sur site -

    Le cabinet d’avocats a déclaré qu’il était difficile de dire si une nouvelle vague de faillites était imminente, mais que "certaines parties prenantes ont peut-être abandonné l’espoir que la hausse des prix des produits de base sauvera tout le monde", en particulier les opérateurs au bord de la faillite.

    "Pour ces producteurs, le chronomètre de jeu n'a plus de temps pour continuer à jouer avec leurs créanciers et les autres parties prenantes", a averti la firme.

    Buddy Clark, un partenaire de Haynes & Boone, a déclaré à Reuters que bon nombre des faillites de 2019 sont des restructurations planifiées au chapitre 11, dans lesquelles les créanciers s'accordent à l'avance sur des plans de restructuration.

    "Je ne pense pas que vous verrez beaucoup de choses au chapitre 7 (liquidations)", a-t-il déclaré. "Lorsque vous voyez le chapitre 7, il ne reste plus d'actifs. En règle générale, il en reste toujours."

    Natural Gas Intelligence estime qu'une vague de faillite dans le secteur en amont pourrait être imminente. En effet, les opérateurs de tout le pays ont réduit leurs activités depuis le crash du pétrole, 44% au 4T18. Les producteurs ont été confrontés à une compression des marges, à un endettement élevé et à des marchés surapprovisionnés jusqu'à présent cette année.

    - voir graphique sur site -

    Haynes et Boone ont déclaré que 22 sociétés de services pétroliers (OFS) avaient déposé leur bilan depuis l'année dernière, le plus notable étant le buste de Weatherford International le mois dernier.

    RépondreSupprimer

  33. Le secteur intermédiaire a jusqu'ici résisté au ralentissement sans subir les mêmes difficultés financières que le secteur amont.

    Haynes et Boone ont enregistré 192 faillites E & P depuis 2015 représentant une dette totale de 106,8 milliards de dollars et 185 faillites OFS impliquant une dette de 65 milliards de dollars sur la même période.

    Et, avec l'avertissement d'Albert Edwards de SocGen au sujet d'un effondrement déflationniste, il semble que le ralentissement de l'inflation pourrait faire baisser considérablement les prix des produits de base et déclencher le raz-de-marée des faillites énergétiques au cours de l'année électorale 2020.

    https://www.zerohedge.com/news/2019-08-16/report-bankruptcy-filings-rise-among-us-energy-producers

    RépondreSupprimer
  34. L'industrie du maïs écrasée par une décision choquante concernant l'éthanol


    par Tyler Durden
    Dimanche, 18/08/2019 - 16h30
    Publié par Nick Cunningham via OilPrice.com,


    L’administration Trump a tenté de faire la différence entre les industries de l’éthanol de maïs et du raffinage du pétrole, alors que les deux s’attaquent à la politique fédérale. L’EPA a peut-être pensé adopter une approche équilibrée lorsqu’elle a rendu une série de décisions récentes, mais à en juger par les réactions du marché, l’agence semble avoir décidément décidé de passer du pétrole à l’éthanol.

    La politique fédérale exige qu'un certain volume de biocarburants soit incorporé dans le mélange de carburants du pays. Chaque année, l'EPA décide des niveaux exacts. Il s'agit d'un jeu à somme nulle entre les producteurs d'éthanol et les raffineurs de pétrole. L'industrie de l'éthanol souhaite des niveaux de mélange plus élevés car cela augmente les ventes, tandis que les raffineurs en veulent moins pour couvrir les coûts.

    Même si elles sont toujours en contradiction, les deux industries étaient un peu à l’état pour une bonne partie de l’administration Obama car, bien que les deux parties aient sûrement eu du chagrin, la politique du gouvernement était au moins prévisible.

    Ahold Delhaize PDG sur les bénéfices, les marges, le marché américain, les perspectives du secteur

    Tout cela a changé sous l'administration Trump, et plus particulièrement sous la gérance de Scott Pruitt, ancien administrateur de l'EPA. Sous son mandat, l’EPA a augmenté le nombre de dérogations qu’elle a accordées à l’industrie du raffinage, libérant ainsi certains raffineurs de l’obligation d’acheter de l’éthanol qui, selon eux, serait soumise à des difficultés économiques.

    Le mouvement a bouleversé un fragile équilibre entre les deux industries, paysans et agriculteurs producteurs d’éthanol. Le marché des numéros d'identification renouvelables (RIN), qui constituent les crédits que les raffineurs peuvent acheter pour compenser leurs obligations de mélange, s'est effondré après l'augmentation des renonciations de la part de l'EPA. Le manque de clarté des politiques a entraîné une volatilité accrue et des prix plus bas pour les RIN, et les politiciens d’États agricoles - alliés du président Trump - ont demandé à l’EPA de cesser de délivrer autant de dérogations. Trump a essayé de rester au-dessus de la mêlée, craignant de mettre en colère un camp sur l'autre, et a demandé à ses lieutenants de négocier un compromis.

    Trump a même proposé d'autoriser la vente tout au long de l'année de l'E15 - une concentration plus élevée d'éthanol interdite pendant les mois d'été en raison de préoccupations liées à la pollution atmosphérique - comme moyen de faire amende honorable avec les producteurs de maïs et d'éthanol.

    Mais l'administration vient de rendre une décision choquante aux industries du maïs et de l'éthanol. Le 9 août, l'EPA a annoncé sa décision concernant les demandes de dérogation pour 2018, approuvant 31 d'entre elles et en rejetant six. La décision semble être une tentative d'offrir quelque chose aux deux côtés, mais l'industrie des biocarburants était furieuse.

    «L’approbation par l’administration Trump de 31 exemptions de la norme sur les carburants renouvelables dans les raffineries n’est que une nouvelle pour notre industrie», a déclaré Monte Shaw, directeur exécutif de l’Iowa Renewable Fuels Association (IRFA), dans un communiqué de presse. "Avec cette action, le président Trump a détruit plus d'un milliard de gallons de demande de biocarburants et a rompu sa promesse faite aux électeurs de l'Iowa de protéger la [norme sur les carburants renouvelables]."

    RépondreSupprimer
  35. Avant l'annonce, les prix des RIN ont plongé à 11 cents, contre 20 cents un jour plus tôt, selon Argus.

    «À une époque où les usines d'éthanol de Heartland sont en faillite et les emplois perdus, il est incompréhensible et absolument répréhensible que l'Administration Trump accorde des dérogations plus injustifiées aux raffineurs de pétrole prospères», a déclaré Geoff Cooper, PDG de Renewable Fuels Association, a déclaré dans un communiqué, qualifiant la décision de l'EPA de "choc total".

    Les raffineurs, par contre, ont bien accueilli la décision.

    «La planification des immobilisations est difficile sans savoir si votre raffinerie doit mettre de côté des millions de dollars pour les achats de RIN», a déclaré la Small Refiners Coalition. "La décision d'accorder de petites difficultés aux raffineries est une décision juridique et non politique."

    Pour les agriculteurs, les succès continuent, et la décision de l’EPA n’est que le dernier d’une série de coups reçus de Washington. La guerre commerciale entre les États-Unis et la Chine a frappé le Midwest américain, les agriculteurs n’ayant pratiquement plus accès au marché chinois. La Chine s’est tournée vers le Brésil pour l’éthanol et le soja. Les prix du soja, du maïs et d’autres produits agricoles aux États-Unis ont chuté.

    Plus récemment, les prix du maïs ont rebondi, mais uniquement parce que le Midwest était plongé dans des inondations sans précédent qui menaçaient les semis de maïs. Cependant, les dernières données du département de l’Agriculture des États-Unis montrent que les rendements ne seront pas aussi durement touchés que prévu - une bonne nouvelle, mais une offre plus importante que prévu a provoqué une nouvelle chute des prix du maïs. Lundi, les prix à terme du maïs ont chuté à la limite, ou le maximum permis avant la négociation est coupé.

    Les prix à terme de l'éthanol à base de maïs ont chuté à un plus bas niveau en cinq ans pour la période de l'année, tombant à 1,27 dollar le gallon mercredi, soit une baisse d'environ 25% depuis le mois de juin. "L'administration Trump a totalement annihilé les marges des producteurs d'éthanol", a déclaré Charlie Sernatinger, responsable des contrats à terme sur les céréales chez ED & F Man Capital Markets, au Wall Street Journal.

    Entre-temps, la guerre commerciale entre les États-Unis et la Chine risque de s’intensifier, malgré la décision de Trump de ne pas attendre jusqu’en décembre. L'administration Trump a offert des paiements en compensation aux agriculteurs touchés par la guerre commerciale, mais le stress financier dans le secteur agricole augmente. Les faillites sont en forte hausse.

    Infliger autant de souffrances à un groupe politique clé semble risqué, bien que l’on ne sache pas s’il va y avoir un changement de politique sur la guerre commerciale ou sur l’éthanol. Les agriculteurs étaient clairement dans l’esprit de Trump jeudi matin.

    Nos grands agriculteurs savent à quel point il est important de gagner sur le commerce. Ils seront les grands gagnants !

    https://www.zerohedge.com/news/2019-08-18/corn-industry-crushed-shocking-ethanol-decision

    RépondreSupprimer
  36. AAA dit l'éthanol-carburant peut endommager certaines voitures, l'EPA demande de le retirer des pompes


    Par: Audrey Hudson
    30/11/2012 14:21


    L'utilisation de l'E15 récemment approuvé carburant fabriqué à partir de mélange d'essence et d'éthanol pourrait endommager les véhicules et les garanties vide, dit l'American Automobile Association (AAA), qui exhorte le gouvernement fédéral à l'interdire sur le marché.

    L'Environmental Protection Agency (EPA) a approuvé le carburant plus tôt cet été, mais AAA dit seulement cinq pour cent des véhicules sur la route sont approuvés par les fabricants d'utiliser le mélange spécial qu'ils disent provoque des problèmes importants tels que usure prématurée du moteur et de l'échec, de carburant d'endommager le système et faux "Check Engine" feux de détresse.

    Le club automobile a mené une enquête récente, il dit identifie la confusion chez les consommateurs quant aux véhicules peuvent utiliser du carburant - 95 pour cent des personnes interrogées n'avaient jamais entendu parler de l'E15, qui contient 15 pour cent d'éthanol.

    "Il est clair que des millions d'Américains ne sont pas familiers avec E15, ce qui signifie qu'il y a une forte possibilité que de nombreux automobilistes peuvent mal se remplir avec cette essence et les dégâts de leur véhicule», a déclaré Robert Darbelnet, président AAA. «Apporter E15 sur le marché sans garanties adéquates ne sont pas responsable de répondre aux besoins des consommateurs."

    Rép Jim Sensenbrenner (R-Wis.), ancien président du Comité scientifique de la Chambre, a déclaré que les résultats confirment les préoccupations sur la colline du Capitole que le carburant peut endommager les voitures.

    L'essence mélangée à l'éthanol à 10 pour cent est facilement disponible dans la plupart des stations du pays, mais E15 est vendu uniquement à quelques stations dans le Kansas, l'Iowa et le Nebraska.

    «La crainte d'E15 ne sont pas en baisse, elles sont en augmentation. Cela dit, "Sensenbrenner dit. «Quand une organisation comme AAA, une source de confiance à l'échelle nationale pour les automobilistes, appelle l'EPA, on pourrait penser que l'administration voulait l'entendre."

    L'EPA n'a pas encore répondu à la demande de l'AAA.

    Plusieurs fabricants dont BMW, Chrysler, Nissan, Toyota et Volkswagen refusent de couvrir les garanties de véhicules pour les dommages causés par E15. Plus ils sont de signalisation suivront, notamment General Motors, Ford, Honda, Hyundai, Kia, Mazda, Mercedes-Benz et Volvo, selon l'AAA.

    Les seuls véhicules actuellement approuvés par les constructeurs automobiles à utiliser E15 flex-fuel sont les modèles fabriqués en 2001 et après, dont certaines Porsche, General Motors et Ford. L'utilisation de l'E15 est expressément interdite dans les véhicules lourds y compris les bateaux, motocyclettes, équipement électrique, tondeuses à gazon et les véhicules hors route.

    «La vente et l'utilisation de l'E15 devrait être suspendue jusqu'à l'obtention de l'étiquetage pompe à essence et les efforts d'éducation des consommateurs sont mises en œuvre pour atténuer les problèmes pour les automobilistes et leurs véhicules», a déclaré Darbelnet. «Les consommateurs devraient lire attentivement les étiquettes de la pompe et de savoir les recommandations de leur fabricant automobile pour aider à prévenir les problèmes de E15."

    http://www.humanevents.com/2012/11/30/aaa-says-certain-ethanol-fuel-can-damage-cars-asks-epa-to-remove-from-pumps/

    https://huemaurice5.blogspot.com/2012/12/aaa-dit-lethanol-carburant-peut.html

    RépondreSupprimer
    Réponses
    1. Non, le 'moteur à eau' n'existe pas ! (sauf chez Denis Papin). L'éthanol endommage TOUS les moteurs 'préparés' ou pas ! Votre véhicule durera donc moins longtemps et aura des difficultés à la revente !

      Supprimer
  37. "Le succès est clair": nous avons enfin un remède contre le virus Ebola


    par Tyler Durden
    Dim, 08/18/2019 - 07:35


    Selon Wired, il semblerait que nous ayons enfin un remède contre Ebola.

    Des scientifiques et des médecins de la République démocratique du Congo ont mené un essai clinique de nouveaux médicaments pour lutter contre une épidémie d'Ebola qui dure depuis plus d'un an. Lundi à l'Organisation mondiale de la santé, les coauteurs de l'essai ont annoncé que deux de ces traitements expérimentaux semblaient augmenter considérablement les taux de survie. Auparavant, il avait été prouvé qu'un vaccin empêchait les gens de contracter le virus Ebola, mais les nouveaux traitements sont désormais efficaces pour les personnes déjà infectées.

    Jean-Jacques Muyembe, directeur général de l'Institut national de recherche biomédicale en RDC, a déclaré:

    "A partir de maintenant, nous ne dirons plus qu'Ebola est incurable."

    Le message clair et crédible de Powell est crucial cette semaine, déclare Anderson, de UBS

    Les patients de quatre centres de traitement situés dans l'est du pays, où l'épidémie est la plus grave, ont été assignés au hasard pour recevoir l'un des quatre traitements expérimentaux. Un médicament est un antiviral appelé remdesivir, tandis que les autres utilisent des anticorps monoclonaux. Les scientifiques ont assemblé ces grandes protéines en forme de Y pour reconnaître des formes spécifiques de bactéries et de virus envahissants, puis recruter des cellules immunitaires pour attaquer les agents pathogènes.

    L'un de ces médicaments s'appelle ZMapp, qui a fait l'actualité de manière constante en 2014 et qui est actuellement considéré comme le traitement de choix lors des épidémies d'Ebola. Selon Anthony Fauci, directeur de l’Institut national des allergies et des maladies infectieuses des NIH, il a un taux de mortalité de 49%.

    Le but de l'essai, qui a débuté en novembre, était de voir si l'un de ces médicaments pouvait dépasser le taux de mortalité de ZMapp. Les taux de mortalité par Ebola sans traitement dépassent 75%. Les résultats ont été exceptionnellement prometteurs:

    Le cocktail d’anticorps monoclonaux produit par une société appelée Regeneron Pharmaceuticals a eu le plus grand impact sur la réduction du taux de mortalité, tombant à 29%, tandis que l’anticorps monoclonal de NIAID, appelé mAb114, affichait un taux de mortalité de 34%. Les résultats les plus frappants ont été les plus frappants chez les patients qui ont reçu des traitements peu de temps après être tombés malades, alors que leur charge virale était encore faible: les taux de mortalité ont chuté à 11% avec mAb114 et à seulement 6% avec le médicament de Regeneron, contre 24% avec ZMapp et 33% avec Remdesivir.

    Les médicaments à base d'anticorps monoclonaux sont devenus populaires dans la médecine moderne, aidant à lutter contre des maladies comme le cancer et le lupus.

    Du côté négatif, il faut des années d'ingénierie inverse pour créer ces types de médicaments. ZMapp, par exemple, a été créé en infectant des souris avec Ebola, puis en collectant les anticorps produits par les souris contre le virus. À partir de là, ces anticorps devaient être conçus de manière à ressembler davantage à des anticorps humains, afin de ne pas provoquer de réaction immunitaire.

    RépondreSupprimer
  38. Étant donné que le virus Ebola infiltre les cellules des victimes en utilisant des protéines épineuses sur l'enveloppe externe du virus, les chercheurs recherchent des anticorps capables de se lier efficacement à ces protéines. À partir de là, si l'accès est bloqué, le virus ne peut pas se répliquer et se propager. Le virus Ebola est particulièrement difficile en raison de sa taille et de sa capacité à changer de forme, ce qui empêche un anticorps de bloquer son infection. C’est la raison pour laquelle une approche de cocktail de médicaments est préconisée, comme le produit Regeneron, qui est une combinaison de trois anticorps monoclonaux générés pour la première fois chez la souris.

    D'autres ont également suggéré que l'extraction du sérum des survivants d'Ebola et la collecte de cet ADN pour fabriquer des anticorps pourraient fonctionner. Cela pourrait au moins donner un ensemble d'instructions génétiques pour la fabrication d'anticorps ayant fait leurs preuves contre un virus. C’est ce que fait le NIb114 des NIH: il utilise l’anticorps isolé du sang d’un survivant d’une épidémie de 1995.

    Depuis l'annonce, un nouvel essai comparant le médicament Regeneron au mAb114, produit par une société basée en Floride appelée Ridgeback Biotherapeutics, devrait débuter directement. Toutes les unités de traitement du virus Ebola dans la zone d'épidémie n'administreront désormais que les deux médicaments à base d'anticorps monoclonaux les plus efficaces.

    Mike Ryan, directeur de l’OMS, a déclaré: «Les nouvelles d’aujourd’hui nous permettent de sauver encore plus de vies. Le succès est clair. Mais il y a aussi une tragédie liée au succès. La tragédie est que pas assez de personnes sont traitées. Nous voyons encore trop de personnes qui ne fréquentent pas les centres de traitement et qui ne sont pas retrouvées à temps pour pouvoir bénéficier de ces traitements ».

    Depuis le début de l'épidémie en août dernier en RDC, plus de 2 800 personnes ont été infectées et 1 794 sont décédées.

    https://www.zerohedge.com/news/2019-08-17/success-clear-we-finally-have-cure-ebola

    RépondreSupprimer
  39. Apprenez comment fonctionnent les banques

    Loin d’être « dérégulée », l’industrie bancaire a subi au contraire un large mouvement de règlementations depuis le début des années 1980.


    Par Guillaume Nicoulaud.
    19 AOÛT 2019


    C’est au début des années 1980 que les autorités monétaires et financières ont commencé à imposer aux banques de respecter ce que nous appelons aujourd’hui des ratios de solvabilité (ou, indifféremment, des ratios d’adéquation des fonds propres). L’idée, comme toujours, partait des meilleures intentions qui soient : il était question d’empêcher les banques de prendre trop de risques en limitant la quantité de crédit qu’elles pouvaient accorder en fonction de leurs fonds propres.

    Aux États-Unis, par exemple, les premiers ratios de ce type (1981) imposaient aux banques de disposer d’un capital 1 égal à 5 ou 6 % (en fonction du type de banque) du montant total de leur actif.

    À partir du milieu de la décennie, il est apparu aux régulateurs que ces ratios basiques souffraient d’une faille importante dans la mesure où ils ne distinguaient pas les prêts réputés sûrs (accordés aux institutions publiques par exemple) de ceux dont on pouvait raisonnablement supposer qu’ils étaient plus risqués (typiquement, un prêt accordé à une entreprise privée dont la situation financière est fragile).

    Ce sont ces réflexions qui, en 1988, vont donner naissance au premier des ratios de Bâle 2, le ratio Cooke ou Bâle I. Le principe en est le suivant : les banques doivent désormais calculer le montant de leurs actifs pondérés des risques (y compris le hors-bilan) et faire en sorte de disposer d’un capital au moins égal à 8 % de ce dernier.

    Dans le cadre du ratio Cooke, le calcul de l’actif pondéré des risques se base sur quatre grandes catégories : les crédits accordés à (ou garantis par) des gouvernements sont pondérés à 0 % (c’est-à-dire qu’un prêt de 100 dollars au gouvernement des États-Unis compte pour 0 % de 100 dollars, soit 0), les prêts aux banques sont pondérés à hauteur de 20 % 3, les crédits immobiliers sont pondérés à 50 % tandis que tous les autres types de prêts – et notamment les lignes de crédit accordées aux entreprises – sont pondérés à 100 %. Par exemple, une banque qui aurait accordé 25 dollars de prêts au gouvernement, 25 dollars à une autre banque, 25 dollars de crédits immobiliers et 25 dollars à une entreprise afficherait un actif de 100 dollars, un actif pondéré des risques de 42,5 dollars (0 % x 25 dollars + 20 % * 25 dollars + 50 % * 25 dollars + 100 % * 25 dollars) et devrait donc disposer d’un capital de 3,4 dollars (8 % x 42,5 dollars).

    Pour les banques, qui, à l’instar de n’importe quelle entreprise privée, raisonnent en termes de rentabilité de leurs fonds propres, le message du législateur est on ne peut plus clair : moins de prêts aux entreprises et plus de crédit immobilier. Les chiffres de la Fed pour les États-Unis sont sans équivoque : d’environ 25 % du total des crédits accordés par les banques en 1988, les crédits immobiliers ont littéralement explosé et représentent aujourd’hui plus de 40 % du montant total prêté par les banques. Sur la même période, les crédits industriels et commerciaux ont suivi la tendance inverse : de 25 % en 1988, ils pèsent aujourd’hui moins de 14 % des prêts bancaires.

    RépondreSupprimer
  40. Les banques se montrant de plus en plus frileuses dès lors qu’il était question de leur prêter de l’argent, les entreprises ont dû trouver d’autres sources de financement. En l’occurrence, c’est vers les marchés qu’elles se sont retournées : elles se sont mises à émettre des obligations (ou, d’une manière plus générale, des titres de créances) qui leur permettaient de contourner l’industrie bancaire et d’accéder directement aux capacités de financement de l’économie.

    Ce phénomène porte un nom, la désintermédiation bancaire, et il a une limite : il ne concerne que les grandes entreprises. En effet, une émission obligataire, pour des raisons de coûts et de liquidité, ça se chiffre en centaines de millions d’euros. Pour les petites entreprises, la mise en œuvre des ratios de Bâle s’est donc traduite par un tarissement ou, dans le meilleur des cas, un renchérissement du crédit bancaire sans qu’aucune alternative viable ne vienne le remplacer.

    Une autre stratégie de contournement des ratios de solvabilité a consisté, pour les banques, à se débarrasser massivement des risques de crédits qu’elles portaient sur leur bilan. La méthode, connue sous le nom de titrisation, consiste à transférer les crédits accordés par une banque à une entité créée pour l’occasion, laquelle entité finance l’opération en émettant de la dette sur les marchés.

    En d’autres termes, pour pouvoir continuer à prêter tout en respectant la contrainte réglementaire, les banques ont transféré leurs risques sur des institutions non-bancaires. Aux États-Unis, par exemple, le développement du marché des Asset-Backed Securities coïncide parfaitement avec la mise en œuvre de Bâle I.

    C’est la combinaison de ces deux effets – désintermédiation et titrisation – qui va donner naissance à ce que nous appelons aujourd’hui le shadow banking (la « finance de l’ombre », brrr…) ; c’est-à-dire l’ensemble des activités qui, pour faire simple, prêtent de l’argent sans recevoir de dépôts et ne sont donc, à ce titre, pas soumises aux ratios de Bâle. On y inclut généralement les banques d’affaires, les fonds d’investissement (du fonds monétaire au hedge fund), les compagnies d’assurance, les organismes de crédit non-bancaires, les véhicules de titrisation… Bref, les entités qui sont venues se substituer aux banques pour financer l’économie.

    Enfin, à la toute fin des années 1990, le comité de Bâle propose une réforme du ratio dont la principale caractéristique est l’introduction des notes des agences de notation financière 4 dans le calcul des actifs pondérés des risques. C’est le ratio McDonough ou Bâle II. Là encore, la démarche du législateur est parfaitement logique : comment justifier, en effet, qu’un prêt à une banque qui connaît de graves difficultés financière soit pondéré plus faiblement qu’un crédit accordé à une entreprise en bonne santé ? Petit à petit, au cours de la deuxième moitié des années 2000, ce nouveau principe est adopté et va même faire des émules dans d’autres règlementations – typiquement Solvabilité II pour les compagnies d’assurances.

    Cette idée qui consiste à intégrer les notes des agences dans la règlementation n’est en réalité pas nouvelle ; elle est même antérieure aux premiers ratios de solvabilité bancaire puisque, dès 1975, la Securities and Exchange Commission avait appliqué ce principe aux courtiers étasuniens. Naturellement, pour les agences de notation officiellement adoubées par le législateur 5, c’est une excellente nouvelle puisque ne pas être noté par l’une d’entre elles se traduit, pour la plupart des emprunteurs, par un surcoût qui excède très largement celui de la notation elle-même. Sans surprise, c’est donc à partir de 1975 que les agences ont pris la détestable habitude de se faire rémunérer par les emprunteurs dont elles étaient chargées d’évaluer la solidité financière.

    RépondreSupprimer
  41. La généralisation des règlementations de type Bâle II va avoir principalement deux conséquences sur les affaires des agences : d’une part, elles disposent désormais d’une rente règlementaire qui leur assure de confortables bénéfices et, par ailleurs, elles vont acquérir un pouvoir d’influence sans précédent. Autrefois, une banque ou un investisseur pouvait choisir d’ignorer les conseils des agences ; désormais, la dégradation d’une note a des conséquences légales. Aujourd’hui, lorsque les agences dégradent un emprunteur en deçà d’un certain seuil, ce sont ces contraintes règlementaires qui forcent les investisseurs à vendre et, pire encore, à vendre tous en même temps.

    Quelles que soient vos opinions politiques, il y a donc un certain nombre de faits auxquels vous ne pouvez pas échapper.

    Primo, l’industrie bancaire, loin d’être, comme on l’entend trop souvent « dérégulée », a subi au contraire un large mouvement de règlementation depuis, en gros, le début des années 1980. C’est même la seule industrie qui est aujourd’hui régulée de manière coordonnée à l’échelle mondiale ; les ratios de solvabilité n’étant qu’une des nombreuses pierres de l’édifice. Le fait est que ces derniers, qui visaient précisément à limiter les risques de faillite et les paniques bancaires, se sont révélés parfaitement inopérants. Vous pouvez estimer que le législateur a mal fait son travail, qu’il a été trop laxiste mais mettre la crise que nous traversons sur le dos d’une prétendue absence de régulation relève de l’ignorance ou de la malhonnêteté intellectuelle.

    Deuxio, les ratios de solvabilité ont bien eu des effets et pas des moindres : ils ont provoqué, d’une part, la désintermédiation bancaire et le développement du shadow banking et, d’autre part, l’explosion du marché de la titrisation. Nos politiciens qui, aujourd’hui, se plaignent de ce que les banques ne prêtent plus aux entreprises (d’où la Banque publique d’investissement) et s’inquiètent de l’importance du shadow banking ne semblent pas réaliser que ce sont précisément leurs interventions passées qui sont à l’origine de ces phénomènes. Si le durcissement des ratios de solvabilité bancaires (Bâle III) et la « reprise en main » des sources de financement non-bancaires de l’économie doivent avoir un effet, c’est bien de réduire encore un peu plus les sources de financement à la disposition de nos entreprises.

    Tertio et symétriquement, vous ne pouvez pas, en conscience, nier le fait que les ratios de solvabilité ont très largement favorisé les crédits immobiliers et les emprunts publics qui se trouvent précisément être au cœur de la crise que nous connaissons aujourd’hui. Ce n’est, bien sûr, qu’une partie de l’équation mais nier le rôle joué par la règlementation dans la croissance des crédits immobiliers et donc, dans la formation de la bulle immobilière relève de l’aveuglement pur et simple.

    Quarto et j’en resterai là : c’est le législateur qui, en utilisant les notes des agences dans la réglementation, a introduit un risque systémique massif dans notre système financier. Là où, autrefois, banquiers et investisseurs pouvaient décider de continuer à soutenir un débiteur en difficulté, ils n’ont désormais plus le choix : il leur faut vendre et il leur faut vendre tous en même temps. Ces problèmes que sont le pouvoir exorbitant acquis par les agences et ses conséquences sur les emprunteurs qui voient leur note dégradée ne seront pas réglés en légiférant : ce sont justement des conséquences directes et logiques de la réglementation.

    RépondreSupprimer
  42. C’est un principe bien établi : chaque catastrophe provoquée par l’ardeur législative de nos gouvernants est immédiatement requalifiée en « défaillance du marché » qu’il faut, de toute urgence, colmater à coup de réglementations. Nous allons donc assister à un nouvel épisode dont la fin est, malheureusement, déjà connue. Puissions-nous enfin en tirer les conclusions qui s’imposent.

    Article initialement publié en août 2013.


    Sur le web

    1 - Primary capital, principalement composé des fonds propres et des réserves. ?

    2 - Du nom de la ville suisse dans laquelle se réunissent, sous l’égide de la Banque des règlements internationaux (BRI), les gouverneurs des banques centrales du G10 (a.k.a. le comité de Bâle). ?

    3 - C’est aussi le cas aux États-Unis des prêts accordés aux government-sponsored enterprises comme Fannie Mae et Freddie Mac. ?

    4 - En pratique, les banques qui en ont les moyens peuvent opter pour des méthodes internes d’évaluation des risques. Naturellement, ces dernières sont soumises à l’accord des autorités de tutelles qui veillent à ce qu’elles ne s’écartent pas trop des modèles de référence – c’est-à-dire ceux des agences. ?

    5 - Aux États-Unis, les Nationally Recognized Statistical Rating Organization (NRSRO).

    https://www.contrepoints.org/2019/08/19/134807-apprenez-comment-fonctionnent-les-banques

    RépondreSupprimer