Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Science

Viande rouge : ce dont on n'a pas parlé

LA SCIENCE DANS SES MOTS / Il semble de plus en plus difficile de trouver des conseils alimentaires précis et cohérents. Par exemple, une étude largement publicisée récemment affirmait que les gens n'ont pas besoin de réduire leur consommation de viande rouge et de viande transformée pour demeurer en bonne santé.

Les avis scientifiques se sont divisés, certains experts qualifiant l'étude d'évaluation « rigoureuse », d'autres la remettant en question. L'étude ne serait pas si indépendante.

Les sceptiques de la science de la nutrition pourraient citer de nombreux exemples similaires d'opinions contradictoires, par exemple sur les bienfaits ou les dangers des gras saturés ou des suppléments nutritionnels. De telles contradictions ne font que renforcer la méfiance du public à l'égard de la recherche en nutrition.

Les conseils fiables en matière d'alimentation sont importants. Le hic: ils s'appuient habituellement sur des recherches scientifiques menées auprès de grands groupes de populations. Mais leurs résultats peuvent masquer d'énormes variations du risque entre les individus au sein de ces populations.

La fin du «one size fits all»

Une étude qui ne différencie pas les personnes à risque élevé dans une population générale à faible risque peut produire une estimation faussée du risque global. Elle rassure également, à tort, les personnes à risque élevé que le leur est le même que celui de tous. Mais une politique nutritionnelle universelle n'a pas plus de sens que de calculer la pointure moyenne d'une population et de recommander que tout le monde porte cette pointure. Même les statisticiens conviennent que «la moyenne est une abstraction. La réalité est une variation».

Une simple campagne de santé publique est justifiée si la force de l'association entre cause et effet est élevée pour l'ensemble de la population, comme c'est le cas pour le tabagisme et le cancer du poumon. Mais la plupart des nutriments et des aliments n'ont qu'une faible association avec le risque lorsqu'ils sont évalués sur l'ensemble d'une population. Ce sont ceux qui font partie de sous-groupes à haut risque qui sont les plus concernés.

Par exemple, les personnes en surpoids ou obèses ont tendance à réagir différemment aux autres. Une alimentation riche en glucides augmente le risque de maladies coronariennes, mais elle est beaucoup moins préoccupante pour les personnes minces.

Science

Nettoyage du plastique dans le Pacifique : pas encore tout-à-fait ça...

La barrière flottante de 600 mètres de long et de 3 mètres de haut censée nettoyer l’océan de ses déchets de plastique a finalement réussi à ramasser un peu de plastique. Mais la marche est haute pour une invention qui, après sept ans, est encore loin d’avoir fait la preuve de son efficacité.

La compagnie à but non lucratif Ocean Cleanup, fondée par le Néerlandais Boyan Slat, qui n’était encore qu’un adolescent il y a sept ans, était fière d’annoncer le 2 octobre, photo à l’appui, sa première «récolte» de déchets de plastique, quelque part dans l’immense «grande zone d’ordures du Pacifique» (Great Pacific Garbage Patch) située entre la Californie et Hawaï. Le groupe n’a toutefois pas précisé quelle quantité de déchets il avait récolté, alléguant que cette information n’était «pas pertinente».

Le but de l’expérience était de prouver que le système, un genre de bouée géante traînée par un bateau, pouvait ramasser des déchets: une première expérience, l’hiver dernier, s’était soldée par un échec. La nouvelle version, plus stable que la précédente, est partie du port de San Francisco en septembre.

Mais l’idée fait face à des océans de scepticisme depuis sept ans: d’une part, il reste à prouver que cette structure puisse tenir le coup longtemps, face aux assauts violents des courants océaniques et des plus gros déchets. D’autre part, le concept aurait beaucoup plus de chances de faire une différence s’il était appliqué à l’embouchure des grands fleuves du monde, soit avant que la majorité des déchets de plastique ne se déversent dans les océans.

Sans compter qu’au milieu de l’océan, une fois les déchets récoltés, il faut qu’un bateau les remorque jusqu’au port le plus proche, à des centaines sinon des milliers de kilomètres.

Ce qu’on appelle erronément une «île» ou un «continent» de plastique, est en fait un territoire marin de plus d’un million et demi de kilomètres carrés où flotteraient 2000 milliards de morceaux de plastique de toutes les tailles totalisant 80 000 tonnes.

Science

«On ne migrera pas» vers d'autres planètes, prévient le prix Nobel Michel Mayor

MADRID — Chasseur d'exoplanètes, Michel Mayor, lauréat la semaine dernière du Prix Nobel de physique, a averti qu'il ne fallait pas compter un jour sur une migration de l'humanité vers une autre planète. Le chercheur suisse s'exprimait en marge d'une conférence près de Madrid.

Q : Quelles recherches ont été récompensées par ce Nobel ?

R : «Voici 24 ans, avec un de mes collègues (Didier Queloz, distingué avec lui), on a découvert la première planète qui tournait autour d'une autre étoile (que le Soleil). C'était une très vieille question qui était débattue par les philosophes: est-ce qu'il existe d'autres mondes dans l'Univers ? Depuis lors, on en a découvert près de 4000 (exoplanètes) ou plus. On cherche des planètes qui sont le plus proche (de nous), qui pourraient ressembler à la Terre. Nous avons avec mon collègue démarré cette quête des planètes, on a montré que c'était possible de les étudier.»

Q : Y a-t-il de la vie ailleurs dans l'univers ?

R : «Dans la voie lactée, on est sûr qu'il y a énormément de planètes rocheuses avec une masse similaire à la Terre à une distance telle (de leur étoile) que la température est adéquate pour que la chimie de la vie se développe, on ne sait rien de plus. Personne n'est capable de donner une probabilité à la vie ailleurs. Certains scientifiques disent que si toutes les conditions sont réunies, alors la vie va émerger d'elle-même, une sorte d'émergence naturelle des lois de l'univers. D'autres disent : Non, non, c'est pas vrai, c'est beaucoup trop compliqué. On ne sait rien ! La seule manière de faire, c'est développer les techniques qui nous permettent de détecter la vie à distance. C'est à la prochaine génération de répondre à cette question !»

Q : L'humanité pourra-t-elle migrer vers une autre planète ?

R : «Si on parle des planètes extra-solaires, que les choses soient claires: on ne migrera pas là-bas. Ces planètes sont beaucoup, beaucoup trop loin. Même dans un cas très optimiste d'une planète habitable pas trop loin, disons à quelques dizaines d'années lumière, ce qui est tout petit, le voisinage, le temps pour aller là-bas est considérable. Ca se chiffre en centaines de millions de jours avec les moyens actuels. Prenons soin de notre planète ici, elle est très belle et encore tout à fait habitable. (...) Il faut tuer toutes les déclarations du type +Nous irons un jour sur une planète habitable si la vie n'est plus possible sur Terre+. C'est complètement fou.»

Science

Quatre limites des Nobels

DÉTECTEUR DE RUMEURS / Depuis lundi, les trois Nobel de science — médecine, chimie et physique — ont récompensé le travail accompli par une poignée de sommités. Toutefois, les Nobel ont beau être les prix scientifiques les plus prestigieux aux yeux du public, ils n’en sont pas moins qualifiés, à intervalles réguliers, d’anachroniques, d’inadaptés à la façon de faire la science… et de sexistes. Ces critiques sont-elles justifiées ? Le Détecteur de rumeurs survole quatre de ces critiques.

Une vision passéiste de la science : vrai

Jusqu’au début du XXe siècle, il était possible à une grande découverte d’être le fruit d’un seul scientifique travaillant en solitaire. Aujourd’hui, un article scientifique risque plutôt d’être cosigné par plusieurs dizaines de personnes, voire des milliers, comme celui sur la découverte du boson de Higgs, qui, en 2015, comportait 5 154 signatures. Pourtant, la règle d’or des Nobel de science est restée la même depuis 1901 : chaque prix ne peut être attribué qu’à un maximum de trois personnes.

«C’est hautement artificiel et complètement en désaccord avec la façon dont la science se fait aujourd’hui», écrivait en 2013 le physicien américain Sean Carroll, auteur d’un livre sur le boson de Higgs.

Ces prix apportent aux trois gagnants « une attention disproportionnée » par rapport à leur contribution réelle à des recherches qui, en réalité, ont pu s’étaler sur des décennies et impliquer de nombreuses équipes, contestait en éditorial la revue Nature… en 1975.

La controverse a resurgi en 2017 : le Nobel de physique a été décerné à trois des chefs de file de la longue quête qui avait conduit en 2015 à la découverte des ondes gravitationnelles — une découverte dont les résultats ont été signés par plus de 1 000 chercheurs associés à l’observatoire international LIGO. Et cette semaine, bien que les Suisses Michel Mayor et Didier Queloz soient bel et bien les deux découvreurs de la première exoplanète «officielle», en octobre 1995, une équipe de cinq chercheurs dirigée par l’Américain David Latham avait aussi découvert un mystérieux «compagnon» à l’étoile HD 114762 en 1989.

Certains proposent que les Nobel de science s’inspirent du Nobel de la paix, qui peut être remis à des institutions (Amnistie internationale, les Casques bleus, Médecins sans frontières, etc.) autant qu’à des individus.

Des spécialités ignorées : vrai

Nobel de médecine, de chimie et de physique : telles étaient les grandes sciences, lorsqu’ont été décernés les premiers Nobel. Or, en 1901, la génétique et la neurologie n’existaient pas. Cette dernière fait donc partie des grandes oubliées, au même titre que la géologie, l’océanographie, la climatologie, les mathématiques, la botanique ou l’écologie. La génétique s’en sort beaucoup mieux parce que plusieurs de ses percées ont hérité du Nobel de médecine… ou de chimie : protéine G (2012), catalyse (2010), ribosome (2009), protéine fluo (2008)…

Les mathématiciens en ont pris leur parti, eux qui qualifient la Médaille Fields, créée en 1936, de «Nobel des mathématiques» : des travaux en mathématiques n’ont pratiquement jamais mené à un des trois Nobel de science… quoique plusieurs mathématiciens ont gagné un Nobel d’économie.  

Des appels à réformer les Nobel de science ont été plusieurs fois lancés. Des défenseurs des sciences de l’environnement, par exemple, déplorent qu’un prix créé à l’origine pour souligner une contribution «au bien-être de l’humanité», les laisse sur le carreau.

Mais ces appels semblent tomber dans des oreilles de sourds. Réagissant à une lettre ouverte écrite par 10 scientifiques — dont un Nobel — en 2008, l’historien des sciences Robert Marc Friedman, de l’Université d’Oslo (Norvège) déclarait : «la Fondation Nobel tient à conserver son image d’imperméabilité aux influences extérieures.»

Des prédictions presque toujours erronées : vrai

Chaque année, les prédictions de la division scientifique de la firme Thomson Reuters — devenue en 2016 Clarivate Analytics — sur les gagnants des Nobel font le tour des médias spécialisés pendant les jours précédents. Et chaque année, ces prédictions s’avèrent presque toutes fausses.

Il en a été ainsi cette semaine : aucun des cinq gagnants potentiels pointés par Clarivate Analytics pour le Nobel de médecine n’a reçu un appel téléphonique de Stockholm pour lui annoncer la bonne nouvelle. Pas plus qu’aucun des trois «favoris» au Nobel de physique, ni aucun des cinq du Nobel de chimie.
Thomson Reuters se livre à cet exercice depuis 2002 avec des résultats douteux.

L’analyste principal de la firme, David Pendlebury, se targue pourtant d’avoir prédit correctement (en incluant les Nobel d’économie) une cinquantaine de personnes depuis 2002. Le problème est qu’ils ont rarement été prédits la bonne année et qu’ils ont généralement remporté le Nobel après avoir été prédits pendant quelques années d’affilée…

Ces prévisions de Thomson Reuters s’appuient sur la mesure dite du facteur d’impact — c’est-à-dire le nombre de citations recensées d’un chercheur dans la littérature scientifique — ainsi que sur l’influence qu’a eue une découverte. Mais comme les lauréats sont souvent choisis pour leur contribution à des percées survenues il y a plus de 20 ans, voire plus de 30 ans, la liste s’allonge…

Les femmes sous-représentées : vrai

Sur les 9 scientifiques nobélisés cette semaine, aucune femme.
Ce qui, statistiquement, n’est pas étonnant : entre médecine, chimie et physique, la proportion des gagnantes depuis 1901 est d’à peine 3 %.

Sur les huit lauréats de l’an dernier, il y avait certes deux femmes, la Canadienne Donna Strickland (physique) et l’Américaine Frances H. Arnold (chimie). Mais aucune femme n’avait été sur la liste en 2017 et 2016, et une seule en 2015, la Chinoise Youyou Tu, en médecine.

En tout, si on ajoute les Nobel de la paix, de littérature et d’économie, ce sont 52 femmes qui ont décroché une des récompenses depuis 1901. Mais de ce nombre, 31 sont en «littérature» ou «paix», et une en économie, ce qui n’en laisse que 20 dans les trois catégories scientifiques, soit 3 %.

On peut tout au plus sentir une légère progression si on n’analyse que les Nobel de médecine : une seule gagnante avant 1975, puis 5 entre 1975 et 2000, puis 6 depuis 2001. Mais le palmarès est déprimant en physique, avec trois lauréates en 119 ans (sur 210 gagnants) : Donna Strickland, de l’Université Waterloo, en 2018, Marie Goeppert Mayer en 1963 et Marie Curie en 1903.

Ces dernières années, des scientifiques et des blogueurs ont plusieurs fois remis le problème sur le tapis. L’une des «candidates» les plus souvent mentionnées, l’astrophysicienne Vera Rubin, dont le travail a contribué à la découverte de la matière noire cosmique, est décédée en décembre 2016. Et un Nobel ne peut pas être remis à titre posthume.

Quelques jours après son décès, le magazine pour adolescentes Teen Vogue avait même rendu hommage à Vera Rubin, côte à côte avec une autre «femme des étoiles» disparue en 2016, l’actrice Carrie Fisher de Star Wars.

Au terme d’une compilation publiée plus tôt cette semaine, le magazine Chemistry World concluait avec amusement que «le lauréat moyen du Nobel de chimie» est un homme de 57 ans, appartenant à une institution de Californie, dont le travail qui lui vaut cette récompense est paru il y a 16 ans… et qui s’appelle Richard, John ou Paul.

En réponse aux critiques récurrentes, le comité Nobel avait annoncé l’an dernier une initiative qui, pour cette institution, était inédite : que chaque personne invitée à soumettre des candidatures prenne désormais en considération la place des femmes et la «diversité géographique». On ignore si cet appel a eu un impact :  les règles de l’Académie royale de Suède exigent la confidentialité des mises en nomination et des délibérations pendant une période de 50 ans.

Ce texte est une remise à jour d’un article initialement paru en octobre 2017

Science

«Une grosse bouchée pour l’humanité»: de la viande imprimée dans l’espace

MOSCOU - La perspective de cosmonautes savourant un rôti dans l’espace est devenue un peu moins théorique après la création de viande à bord de la Station spatiale internationale (ISS) à l’aide d’une imprimante 3D.

L’imprimante utilisée a permis de produire artificiellement des tissus de bœuf, de lapin et de poisson en utilisant des champs magnétiques en microgravité, a expliqué mercredi une entreprise russe de technologies médicales partie prenante à l’expérience.

Les tests ont été menés en septembre par le cosmonaute Oleg Skripotchka au sein du segment russe de l’ISS.

L’imprimante 3D utilisée est de fabrication russe, tandis que les cellules biologiques ont été fournies par des compagnies américaines et israéliennes.

Selon les meneurs du projet, il s’agit de la première fois qu’une petite quantité de viande artificielle est créée en conditions d’apesanteur.

«C’est une petite bouchée pour l’homme, mais une grosse bouchée pour l’humanité», a déclaré lors d’une conférence de presse Ioussef Khessouani du laboratoire moscovite 3D Bioprinting Solutions, détournant la célèbre phrase de Neil Armstrong sur la Lune.

«C’est pour nous une première expérience de collaboration scientifique internationale dans l’espace», a-t-il ajouté.

Ce laboratoire a été fondé par Invitro, une entreprise pharmaceutique russe. Le projet a été en partie financé par l’agence spatiale russe Roskosmos.

«Il s’agit véritablement d’une percée à la fois pour Roskosmos et pour la Russie dans son ensemble», a affirmé Nikolaï Bourdeïny, un haut responsable du secteur spatial.

+

Science

Les pères de la batterie lithium-ion lauréats du Nobel de chimie

STOCKHOLM - Le prix Nobel de chimie a mis à l’honneur mercredi un Américain, un Britannique et un Japonais, inventeurs de la batterie au lithium-ion qui équipe téléphones intelligents et voitures électriques et dont la demande explose face à l’urgence climatique.

Le Nobel récompense l’Américain John Goodenough, qui devient à 97 ans le plus vieux lauréat nobélisé de l’histoire, le Britannique Stanley Whittingham, né en 1941, et le Japonais Akira Yoshino, 71 ans.

«Ce type de batterie légère, rechargeable et puissante est maintenant utilisée partout», a indiqué l’Académie suédoise royale des sciences qui décerne le prix.

«Elle peut stocker des quantités significatives d’énergie solaire et éolienne, ouvrant la voie à une société libérée des énergies fossiles», a-t-elle ajouté.

Dans le sillage des crises pétrolières des années 1970, Stanley Whittingham, aujourd’hui professeur à la Binghamton University, dans l’État de New York, se met en quête de sources d’énergie non fossiles. C’est ainsi qu’il découvre une méthode pour produire de l’énergie à partir du lithium, un métal si léger qu’il flotte sur l’eau.

John Goodenough, professeur à l’université du Texas à Austin, fait ensuite le pari d’augmenter les propriétés de l’innovation si l’énergie est produite à partir d’oxyde métallique au lieu de disulfure. En 1980, il démontre que la combinaison d’oxyde de cobalt et d’ions de lithium peut produire jusqu’à 4 volts. À partir de ces découvertes, Akira Yoshino, 71 ans, crée la première batterie commerciale, en 1985.

Plus de trois décennies plus tard, la demande de batteries au lithium-ion explose notamment avec l’essor du marché des véhicules électriques dans le contexte urgent du réchauffement climatique.

«Je pense que le changement climatique est un défi très grave pour l’humanité, et les batteries au lithium-ion peuvent stocker de l’électricité», a réagi Akira Yoshino, professeur à l’université Meijo de Nagoya au Japon, interviewé après l’annonce de son prix.

+

Science

Du Big Bang aux exoplanètes: le Nobel de physique à deux Suisses et un Canado-Américain

STOCKHOLM — Le Nobel de physique a distingué mardi trois cosmologues, le Canado-Américain James Peebles, qui a mis ses pas dans ceux d’Einstein pour éclairer les origines de l’univers, et les Suisses Michel Mayor et Didier Queloz qui, les premiers, ont révélé l’existence d’une planète en dehors du système solaire.

Le prix va pour moitié à James Peebles pour ses «découvertes théoriques en cosmologie physique» et pour l’autre moitié conjointement à Michel Mayor et Didier Queloz pour leur «découverte d’une exoplanète en orbite autour d’une étoile de type solaire», a annoncé Göran Hansson, secrétaire général de l’Académie royale des sciences de Suède.

Les trois chercheurs, astrophysiciens et astronomes, ont contribué à «une nouvelle compréhension de la structure et de l’histoire de l’univers». «Leurs travaux ont changé à jamais nos conceptions du monde», a ajouté l’académie.

Les travaux de James Peebles nous ramènent à «l’enfance de l’univers», à travers l’observation des rayons lumineux apparus 400.000 ans après le Big Bang - survenu lui il y a 14 milliards d’années - et qui ont voyagé jusqu’à nous comme pour nous en porter témoignage.

«Ses travaux nous ont révélé un univers dont seulement 5% du contenu est connu : la matière composant les étoiles, les planètes, les arbres - et nous. Le reste, soit 95%, est de la matière noire inconnue et de l’énergie noire. C’est un mystère et un défi pour la physique moderne», souligne l’académie.

Science

Le rôle de la foresterie dans la séquestration du carbone

LA SCIENCE DANS SES MOTS / Ces derniers jours, plusieurs journalistes ont traité du rôle des forêts dans la séquestration du carbone et les commentaires de mon entourage, à la suite de la lecture de ces articles, m’incitent aujourd’hui à apporter des précisions qui pourront être utiles à tous.

En raison de leur superficie, les forêts peuvent agir comme de puissants capteurs OU émetteurs de carbone, affectant le bilan du pays. D’un côté, les arbres emmagasinent du carbone pendant leur croissance. De l’autre, les arbres émettent du carbone lorsqu’ils meurent et se décomposent à la suite de vents violents, d’un feu, d’une épidémie d’insectes ou simplement de vieillesse. Ce carbone est conservé dans les arbres et le sol forestier.

La foresterie peut donc contribuer à améliorer le bilan carbone du pays en réduisant la susceptibilité des forêts aux épidémies d’insectes et aux incendies, et en augmentant la vitesse de croissance et le volume des arbres, tout en s’assurant de maintenir la biodiversité sur le territoire. Puisque la majorité de notre territoire est déjà couvert de forêts, il faudra prioriser l’amélioration de la croissance des forêts existantes à l’aide de travaux sylvicoles, bien que de nouvelles forêts pourront être créées à certains endroits.

Ce n’est pas tout. Lorsque les arbres sont récoltés pour être transformés en produits forestiers, une portion de ceux-ci emmagasine du carbone sur une plus longue période de temps. Le gain est encore plus grand si les produits du bois remplacent des matériaux de construction dont la production nécessite davantage de combustibles fossiles.

Actuellement, les scientifiques travaillent à déterminer le niveau de carbone réellement séquestré par ces efforts, mais une marge d’erreur sera toujours présente en raison de la complexité des systèmes en cause.

Devant la menace des changements climatiques, le rôle des ingénieurs forestiers est ainsi appelé à changer rapidement. Ceux-ci doivent à présent considérer la séquestration de carbone dans la planification des stratégies d’aménagement forestier.

Par exemple, l’actuelle épidémie de la tordeuse des bourgeons de l’épinette qui frappe l’Est du Canada représente une menace et une opportunité. Si rien n’est fait, les forêts de conifères détérioreront le bilan carbone du pays. Cependant, si ces arbres sont récoltés et transformés en produits forestiers, et si les aires mal régénérées sont reboisées, alors le bilan carbone sera amélioré. Les essences plantées devront cependant être adaptées aux futures conditions du climat et aux insectes exotiques qui menacent nos forêts. Ainsi, la foresterie traditionnelle pourra jouer un rôle important pour lutter contre un problème bien contemporain.

Avec un soutien politique et financier plus important, davantage d’efforts pourront être faits pour améliorer le bilan carbone et la résilience de nos forêts face aux changements climatiques. Cet exercice aura même un effet bénéfique sur les entreprises de services forestiers au cœur des milieux ruraux et contribuera du même coup aux approvisionnements de l’industrie forestière. Il n’y a pas de mal à faire d’une pierre trois coups (si les pratiques forestières respectent la science et les règles de l’art) !

Science

Projet de loi 34 : au-delà de la question des tarifs

LA SCIENCE DANS SES MOTS / Les discussions en commission parlementaire sur le projet de loi 34, qui vise à soustraire Hydro-Québec à la supervision de la Régie de l’énergie pour les 5 prochaines années, ont largement porté sur la question des tarifs. Pourtant, d’autres enjeux centraux sont soulevés par ce projet de loi, des enjeux qui pourraient avoir un impact beaucoup plus grand sur Hydro-Québec, le gouvernement du Québec et l’ensemble de la population.

Avant de présenter ces enjeux, il est utile de comprendre l’origine de cette loi, qui émane d’une frustration grandissante — et en partie légitime — d’Hydro-Québec face aux décisions de la Régie.  En effet, le secteur de l’électricité, qui s’inscrit dans le secteur plus large de l’énergie, est soumis à des perturbations majeures depuis une quinzaine d’années, avec l’arrivée des gaz de schiste, la fermeture des centrales au charbon, la décarbonisation de l’électricité, les difficultés à faire approuver les infrastructures de transport énergétiques, les technologies de l’information et la chute rapide des prix des énergies renouvelables intermittentes.

Si le Québec a été relativement peu affecté jusqu’à présent par ces perturbations, celles-ci ont déjà touché les marchés qui l’entourent, affectant les contrats à l’exportation, et devraient s’implanter sur notre territoire dans les années qui viennent. Afin de gérer cette transformation, Hydro-Québec doit revoir son offre de services, intégrer de nouvelles technologies et tester des modèles de tarifications novateurs, à l’instar de ce qu’il se fait ailleurs sur la planète.

C’est dans ce contexte de changement que le premier enjeu lié au projet de loi 34 s’inscrit : plutôt que d’adopter une approche proactive et prospective qui permettrait au Québec de se préparer aux changements inévitables qui guettent le secteur de l’électricité, la Régie a fait barrage à plusieurs des propositions d’Hydro-Québec. Elle a aussi échoué à considérer des approches permettant de réagir rapidement aux perturbations qui affectent le secteur, se cantonnant largement à appliquer des analyses dépassées qui ne considèrent pas l’ampleur de la révolution en cours dans le secteur de l’électricité, voire celui de l’énergie au grand complet.

Devant un tel comportement, pour toute réplique, Hydro-Québec a choisi la voie facile : obtenir du gouvernement qu’il la soustraie à ses obligations de reddition de compte, pour lui donner la marge de manœuvre que la Régie lui refuse afin d’innover dans ses offres de services, ses programmes et ses façons de faire. Cette liberté peut sembler alléchante. Toutefois, l’absence de reddition facilitera le repli d’Hydro-Québec sur elle-même; qu’il soit réel ou perçu, ce repli alimentera la méfiance chez les consommateurs et déplacera sur la scène politique tout mécontentement, ce qui risque de polariser la population face aux transformations qui s’imposent.

L’impact des changements proposés par ce projet de loi ne s’arrêtera pas aux frontière du Québec, ce qui soulève un deuxième enjeu crucial :  la capacité du gouvernement Legault d’augmenter les exportations d’électricité.  En effet, les États américains possèdent généralement des régies très fortes et considèrent celles-ci comme essentielles pour assurer la transparence des tarifs. En soustrayant ses tarifs à l’examen de la Régie, Hydro-Québec s’expose donc à des accusations de dumping de la part de ses opposants, ce qui risque de retarder et même de bloquer certains projets présentement dans les cartons.

Le statu quo dans les rapports entre la Régie de l’énergie et Hydro-Québec n’est plus tenable et le Ministre Julien doit agir. Toutefois, la solution proposée dans ce projet de loi représente non seulement un recul dans la transparence et la bonne gouvernance, mais comporte aussi des inconvénients majeurs pour la population du Québec.

Plutôt que d’affaiblir la Régie de l’énergie pour laisser le champ libre à Hydro-Québec, le gouvernement devrait s’engager dans une réforme visant à améliorer sa pertinence et sa capacité à prévoir et à soutenir les changements qui s’imposent dans les systèmes énergétiques. Avec un peu de volonté, cette transformation pourrait s’accomplir rapidement et assurer le positionnement du Québec comme chef de file dans la modernisation du secteur de l’électricité en Amérique du Nord, pour le bénéfice du plus grand nombre.

Science

Un accélérateur de particules pour «lire» des papyrus vieux de 2000 ans

DIDCOT — Carbonisés lors de l'éruption du Vésuve, des papyrus romains ont gardé leurs secrets pendant près de 2000 ans. Des scientifiques tentent de déchiffrer ces documents «fragiles comme des ailes de papillon» à l'aide d'un accélérateur de particules.

Conservés à l'Institut de France à Paris, ces papyrus antiques du site archéologique d'Hercunalum, près de Naples, ont fait le voyage jusqu'au centre de l'Angleterre pour être déroulés virtuellement. «L'idée qu'on se fait d'un parchemin est que l'on peut simplement le dérouler et le lire, mais ces papyrus ne peuvent pas être déroulés parce que la carbonisation les a rendus extrêmement fragiles», explique à l'AFP le professeur Brent Seales, qui travaille depuis une vingtaine d'années au développement de techniques non invasives de déchiffrage.

Son outil : un synchrotron, un anneau de 500 mètres de circonférence où des électrons tournent à très grande vitesse et émettent une sorte de rayon X très puissant qui permet de traverser de la matière. Baptisé Diamond Light Source, il produit une lumière dix milliards de fois plus lumineuse que le soleil et fonctionne comme un microscope géant, dont les données sont ensuite décryptées informatiquement à l'aide de l'intelligence artificielle.

«Villa des papyrus»

Les rouleaux furent découverts entre 1752 et 1754, lors des fouilles du site d'Herculanum, près de Naples. Contrairement à Pompéi, ravagé par la lave lors de l'éruption du Vésuve en 79 après Jésus-Christ, Herculanum fut frappé par une nuée ardente, qui recouvrit la ville de cendres. Sous cette épaisse couche, les maisons étaient intactes. L'une d'elles, la «Villa des papyrus», abritait une importante bibliothèque de plus de 1800 rouleaux de textes, conservés par les cendres mais carbonisés, impossibles à dérouler.

En 1802, six de ces rouleaux sont donnés par le roi de Naples à Napoléon Bonaparte, qui les confie à la bibliothèque de l'Institut de France à Paris, avec pour mission de les lire. Mais la matière est ultra friable, et les deux premiers essais, en 1817 puis en 1877, échouent. Les rouleaux sont renvoyés à Naples, où, en 1986, une méthode de déroulement chimique permet d'en détacher un, en plusieurs centaines de petits fragments, «très difficiles à lire» en raison de la nature de l'encre, raconte Yoann Brault, ingénieur d'études à la bibliothèque de l'Institut.

Dans le synchrotron anglais, des rayons sont envoyés sur les échantillons et doivent permettre de créer une image à très haute résolution en trois dimensions «sans avoir à détruire, ouvrir ou manipuler les parchemins, a expliqué le professeur, aussi directeur de l'initiative de restauration numérique à l'Université du Kentucky. Le processus de reconstruction, hautement informatisé, nous donne l'information de ce qui se trouvait à l'intérieur.»

Transporter les échantillons depuis Paris jusqu'en Angleterre présentait «certains risques», a reconnu Francoise Berard, directrice de la bibliothèque de l'Institut. «Mais nous tenions évidemment à aider à la découverte du contenu», a-t-elle ajouté, assurant avoir pris «un maximum de précautions» pour ces papyrus «fragiles comme des ailes de papillon».

Des textes épicuriens

Avant le professeur Seales, d'autres scientifiques ont déjà utilisé des techniques non invasives pour déchiffrer ces documents. En 2014 en France, un chercheur du CNRS, Daniel Delattre, avait déjà pu lever le voile sur le contenu de ces papyrus à l'aide d'une nouvelle technique permettant de déchiffrer les textes sans les dérouler, la tomographie X en contraste de phase. On a ainsi pu reconnaître quelques lettres grecques, de la plume d'un philosophe épicurien, Philodème de Gadara.

«Ceci a confirmé que ces rouleaux contiennent pour l'essentiel des écrits grecs, chez une personne (Pison, le beau-père de Jules César, NDLR) intéressée par la philosophie épicurienne, analyse Michel Zink, secrétaire perpétuel de l'Académie des Inscriptions et Belles lettres. Contrairement à la philosophie stoïcienne, dont les textes, jugés compatibles avec le christianisme, ont été recopiés au Moyen-Age, l'épicurisme n'était pas en odeur de sainteté, et ses textes ont rarement été conservés.»

«C'est pourquoi ces rouleaux présentent, sur le fond, une telle importance"», conclut le médiéviste, selon qui «on peut espérer réussir à lire des phrases entières, et peut-être un jour, un texte entier».

Science

Le verre à moitié vide et à moitié plein de la viande rouge

BLOGUE / Une journée, la viande rouge est mauvaise pour la santé. Le lendemain, c'est rendu bon. Le surlendemain, c'est le vin qui est bon pour la santé. Et le jour d'après, ça vous tue.

Si je me fie à ce que je vois passer sur mes réseaux sociaux (non, ce n'est pas très représentatif, mais dans ce cas-ci, mon expérience me dit que ça ne doit pas être très loin de la vérité), c'est pas mal sur ce mode que tout un chacun a réagi à la série d'études parue lundi dans les Annals of Internal Medicine au sujet de la viande rouge.

Et il est vrai que l'on peut avoir cette impression. Il faut regarder un peu vite, mettons, mais il est aussi vrai que la plupart des gens passent leur semaine à travailler et n'ont pas le temps de passer des heures à faire des recherches et des entrevues sur toutes les histoires qui leur passent sous le nez. Après tout, nombre d'études antérieures et d'organisations sanitaires reconnues lient la viande rouge à des risques plus élevés de problèmes cardiaques et de cancer. Or voilà qu'une revue médicale de haut niveau conclut qu'il n'y a pas de raison de diminuer sa consommation de viande et de charcuteries ? Et puis, ne voit-on pas chaque semaine de nouvelles études qui disent que X et Y sont bons pour la santé, pour ensuite être contredites par d'autres données la semaine d'après (je reviendrai sur ce point) ?

Quand on y regarde de plus près, cependant, je ne crois pas que l'on puisse voir un «flip flop» de la science dans les études de cette semaine sur la viande rouge. En fait, tout ceci me laisse plutôt l'impression (que j'ai validée auprès de quelques chercheurs en nutrition) que l'on assiste à un débat sur le proverbial verre d'eau à moitié vide ou à moitié plein. Car contrairement à ce qu'on a entendu ici et là, les auteurs des études de cette semaine n'ont pas présenté des données qui contredisent celles qui existaient déjà. C'est même plutôt l'inverse.

En fait, tout ce beau monde «voit la même chose», pour ainsi dire. Dans leurs résultats, ces chercheurs à qui l'on accole maintenant l'étiquette «pro-viande» ont trouvé (en agrégeant les données de dizaines d'études existantes) que ceux qui consomment plus de viande sont en moyenne en moins bonne santé que ceux qui en mangent moins. L'effet n'est pas énorme, mais il est là — comme dans pas mal tous les travaux antérieurs. Pour le diabète de type 2 et les problèmes cardiovasculaires, par exemple, pour chaque tranche de 3 portions de viande par semaine, ils comptent entre 1 et 6 cas supplémentaires par 1000 personnes. Pour la mortalité par cancer, ces trois portions de viande hebdomadaires feraient une différence d'environ 7 par 1000. Alors ce ne sont vraiment pas des gros effets — par comparaison, on estime que le cancer cause environ 300 décès sur 1000 —, et pour d'autres indicateurs (comme la mortalité de causes cardiovasculaires) les viandes rouges/transformées ne semblent même pas faire de différence.

Mais il reste que les études «pro-viandes» de cette semaine ont quand même trouvé un effet légèrement néfaste aux viandes rouge et transformées, et que c'est essentiellement la même chose que ce qu'ont vu toutes les autres études, méta-analyses et revues de littérature «anti-viande» dans le passé. Par exemple, quand le Centre international de recherche sur le cancer (CIRC) a classé les charcuteries dans les «cancérigènes avérés», c'était sur la base de données montrant un risque faiblement accru (solidement démontré, mais faible) : pour chaque tranche de 50 g de charcuterie consommée par jour (ce qui en fait quand même pas mal), le risque de développer un cancer colorectal est de 18 % plus grand. Ainsi, pour un homme de 50 ans qui ne mangerait pas de charcuterie, le risque de recevoir un diagnostic au cours de 10 prochaines années serait de 0,68 %, et pour son voisin qui mangerait 50 g par jour, il serait de... 0,80 %. (Le calcul se fait comme ceci : 0,68 x 1,18 = 0,80.)

Et le portrait est le même, grosso modo, pour les risques cardiovasculaires, que ce soit pour les charcuteries ou pour la viande rouge : tant les scientifiques «pro» que les «anti-viande» voient la même chose, les mêmes effets, des chiffres qui vont dans le même sens et les mêmes ordres de grandeur. La différence entre les deux camps, c'est que les auteurs des articles des Annals of Internal Medicine considèrent que non seulement les effets sont très modestes, mais que leur existence même est mal démontrée.

En science biomédicale, ce sont les essais cliniques randomisés en double aveugle qui sont considérés comme l'«étalon or» de la recherche, c'est-à-dire le type d'étude le plus solide, le plus fiable : on fait venir les participants en labos, on leur donne un traitement ou un placebo (sans qu'ils sachent ce qu'ils prennent), et on prend une foule de mesures précises tout en contrôlant une foule de variables. Or en nutrition, les essais cliniques en bonne et due forme sont rares parce que généralement impossibles à réaliser — on ne peut pas, par exemple, soumettre 1000 personnes à un régime végétarien et 1000 autres à un régime carné pendant 10-15 ans, et même si on le pouvait, les participants ne pourraient juste pas être tenus dans l'ignorance du «traitement» qu'ils reçoivent. Ceux qui suivraient le régime «végé» se rendraient rapidement compte qu'ils ne mangent jamais de viande.

Alors on fait ce qu'on peut, c'est-à-dire des études dites «observationnelles», qui consistent souvent, par exemple, à faire remplir aux participants un formulaire sur ce qu'ils ont mangé la veille, puis on «observe» ce qui se passe avec ces gens-là pendant 5, 10, 15 ans. C'est beaucoup, beaucoup moins contrôlé qu'un essai clinique, cela ouvre la porte à toutes sortes de biais, connus ou non, qu'il est souvent difficile de bien mesurer/annuler. Ce qui produit des données à l'avenant : moins solides, moins fiables, parfois même suspectes.

Les chercheurs «pro-viande» de cette semaine disent donc : l'effet est mal démontré et, dans le pire des cas où il existerait vraiment, il serait faible, alors il n'est pas justifié d'inviter les gens à manger moins de viande (en tout cas, pas pour des questions de santé). Et ils ont raison de dire que les données sont, dans l'ensemble, de mauvaise qualité — ils ne sont d'ailleurs pas les seuls de cet avis. «Les preuves ont toujours été faibles», a commenté récemment le médecin, chercheur et blogueur américain Steven Novella.

De l'autre côté de ce débat, ceux qui ont critiqué les études de cette semaine et qui demeurent convaincus qu'il faut réduire la consommation de viande admettent ces faiblesses, mais ils répliquent que ces chiffres sont les seuls dont on dispose et qu'il faut faire avec (ce qui est vrai aussi). Et ces études-là, dans l'ensemble, penchent clairement d'un côté : les viandes rouges et transformées ont des effets néfastes pour la santé. En outre, font-ils valoir, même si ces effets sont faibles, il reste aussi que le cancer, les problèmes cardiaques et le diabète sont des maux si répandus que même une petite baisse représente des gains de santé publique énormes (des millions de gens, littéralement).

De la même manière qu'un verre d'eau rempli à 50 % de sa capacité est vraiment à moitié vide et à moitie plein en même temps, tous ces arguments-là, tant les «anti» que les «pro-viande», sont factuellement vrais et scientifiquement valides. Le débat actuel revient à accorder plus d'importance à certains aspects plutôt qu'à d'autres — ce qui est probablement inévitable quand on parle d'effets modestes déduits à partir des données qui sont, disons, encore plus imparfaites que d'habitude (car elles le sont toutes). C'est la nature de la bête, comme on dit en anglais.

Science

Des souris toujours fécondes après un séjour dans l'espace

TOKYO — L'humanité pourra-t-elle un jour se reproduire dans l'espace? Des souris mâles ayant passé 35 jours dans la Station spatiale internationale (SSI) ont en tout cas gardé leurs capacités reproductrices intactes à leur retour sur Terre, ont constaté des chercheurs japonais.

De précédentes études avaient montré qu'un séjour prolongé dans l'espace pouvait affecter les fonctions reproductrices de mammifères mâles. Du sperme de souris congelé pendant 9 mois à bord de la SSI avait notamment été altéré par des radiations, et la production et la quantité de sperme avaient été affectés chez des rats après 13 jours passés en orbite.

Une nouvelle étude japonaise a examiné 12 souris mâles ayant séjourné dans des cages individuelles spécialement conçues à bord de la SSI pendant 35 jours. Certaines de ces cages étaient dans des conditions d'apesanteur, tandis que d'autres étaient maintenues dans un environnement de gravité artificielle. Les chercheurs dirigés par Masahito Ikawa, un professeur de l'université d'Osaka (Japon), ont utilisé le sperme de ces souris à leur retour sur Terre pour féconder des ovules de souris femelles, lesquelles n'avaient pas voyagé dans l'espace.

Il s'est avéré que leur progéniture était normale et en bonne santé. Ni le système reproducteur des rongeurs de l'espace, ni celui de leurs descendants n'ont par ailleurs été affectés, ont révélé des analyses moléculaires. «Nous en concluons que des séjours spatiaux de court terme ne causent pas de dommages à la fonction physiologique des organes reproducteurs mâles, à la fonction du sperme et à la viabilité de la descendance», affirme cette étude publiée la semaine dernière dans la revue Scientific Reports de Nature.

La recherche médicale a déjà démontré que les séjours spatiaux avaient des effets nocifs sur la santé des astronautes: détérioration de la masse musculaire et de la densité osseuse, troubles de la vue et mutations du génome. De précédentes études avaient observé les conséquences de séjours spatiaux sur les systèmes reproducteurs d'autres animaux, dont des oursins et des oiseaux. Mais c'est la première fois qu'une étude analysait ces effets à un niveau aussi détaillé sur des mammifères.

Mais la recherche n'en est qu'à ses débuts dans ce domaine, et les résultats de cette étude ne peuvent extrapolés sur les humains. «D'autres analyses sont nécessaires pour examiner les effets de long terme de l'environnement spatial sur le système reproducteur mâle», reconnaissent les auteurs de l'étude japonaise, qui n'a par ailleurs pas porté sur des souris femelles.

Science

Deux clefs pour comprendre le nouveau rapport du GIEC sur les océans

Un des éléments les plus inquiétants du rapport spécial du GIEC sur les océans et les glaces — ce rapport qui fait grand bruit depuis sa sortie mercredi matin — est que la fonte du pergélisol dans l’Arctique pourrait à elle seule expédier plus de 1 400 milliards de tonnes de carbone de plus dans l’atmosphère d’ici 2100, soit le double de ce qui s’y trouve actuellement.

Mais le chiffre étant plus difficile à appréhender pour la majorité des gens, les médias ont davantage mis l’accent sur des chiffres qui sont moins abstraits : par exemple, lit-on dans ce rapport, le scénario du pire établit désormais la hausse du niveau des océans, d’ici 2100, à l’intérieur d’une échelle se situant entre 61 centimètres et 1,1 mètre (la barre supérieure est dans le cas d’un réchauffement qui atteindrait les 3 degrés). Ou encore, ce niveau des eaux plus élevé signifie davantage d’inondations pendant les tempêtes ou pendant les grandes marées : ainsi, des événements dont on estimait jadis qu’ils ne se produiraient qu’une fois par siècle dans certaines régions côtières des Tropiques, pourraient revenir plusieurs fois par décennie après 2050.

Première clef : le pouvoir des océans

L’une des clefs du rapport pour comprendre tous ces chiffres est que les océans ont beau avoir absorbé le gros de la chaleur et une bonne partie du dioxyde de carbone (CO2) que nos activités ont expédiés dans l’air depuis un siècle — ce sont en effet les océans qui sont les véritables poumons de la planète, plutôt que l’Amazonie — ces océans ont leurs limites, et tout laisse croire que l’on approche de ces limites : la vitesse à laquelle les océans se réchauffent aurait doublé depuis le début des années 1990 et les vagues de chaleur perturbent d’ores et déjà les populations marines d’une façon que les biologistes — et les pêcheurs — en sont encore à essayer de décoder. Cela, en plus du fait que plus les océans absorbent du CO2, plus ils deviennent acides, ce qui menace la survie de certaines espèces de poissons, sans parler des coraux.

Les océans «ne peuvent pas continuer» avec cet apport de gaz à effet de serre d’origine humaine, résume aux journalistes depuis mardi soir le vice-directeur du GIEC, Ko Barrett, également directeur adjoint à l’agence américaine des océans et de l’atmosphère (NOAA).

Deuxième clef : il y a plus d’un scénario

L’autre clef pour comprendre tous ces chiffres réside dans le mot « incertitude ». Ce mot ne signifie pas que les scientifiques sont incertains quant aux impacts de l’activité humaine sur le climat. Il rappelle plutôt qu’un tel rapport du GIEC, comme toute projection sur l’avenir des climats, inclut toujours plus d’un scénario, et que chacun, du plus optimiste au plus pessimiste, est fonction de la vitesse à laquelle nous réduirons nos émissions de gaz à effet de serre.

Ainsi, les 60 centimètres de hausse du niveau des océans reflètent le scénario optimiste, celui où les principaux pays pollueurs respecteraient leurs cibles de l’Accord de Paris et réduiraient donc considérablement leurs émissions de gaz à effet de serre avant 2050. Même dans ce scénario toutefois, le CO2 accumulé continuerait de faire sentir ses effets pendant des décennies.

Quant au scénario pessimiste, à 1,1 mètre de hausse, il place la barre 10 centimètres plus haut que l’estimation la plus pessimiste du plus récent rapport régulier du GIEC, publié en 2013-2014. Cette différence vient d’une compréhension de plus en plus fine, depuis six ans, de la façon et de la vitesse à laquelle vont fondre les glaces de l’Antarctique.

Pour le géologue Richard Alley, de l’Université d’État de Pennsylvanie, cette nouvelle estimation est même «conservatrice», justement en raison de cette incertitude sur l’Antarctique, particulièrement la partie ouest de sa calotte glaciaire. Une fonte plus rapide que prévu pourrait obliger à revoir ces chiffres à la hausse. La hausse du niveau des océans, explique-t-il à la revue Nature, «pourrait être un petit peu moins, un petit peu plus, ou beaucoup plus» que ce que dit le nouveau rapport. «Mais elle ne sera pas beaucoup moins.»

Quant au pergélisol, même une réduction de «seulement» le quart ou la moitié de sa surface d’ici 2100 ne devrait pas faire oublier que le gaz à effet de serre relâché serait le méthane, et non le CO2, et que le premier gaz reste plus longtemps présent dans l’atmosphère que le second.

Un rapport spécial

On appelle ce document «rapport spécial» du GIEC pour le distinguer des rapports réguliers, publiés tous les cinq à sept ans depuis les années 1990 (celui de 2013-2014 était le cinquième). Il s’agit du troisième et dernier rapport spécial depuis un an : le deuxième (paru en août) portait sur l’impact du réchauffement climatique sur notre utilisation des terres et le premier (paru en novembre 2018) consistait en une analyse comparative des impacts d’un réchauffement de un degré et demi par rapport à un réchauffement de deux degrés. Totalisant 800 pages, celui-ci a été rédigé par 102 chercheurs de 80 pays. Un «résumé pour les décideurs» de 42 pages qui, lui, devait être approuvé ligne par ligne par tous les pays membres, a également été publié mercredi matin.

Science

Consensus scientifique et climat: ce qu’il faut savoir

DÉTECTEUR DE RUMEURS / Dès qu’une personne ou un groupe veut remettre en doute l’existence du réchauffement climatique, ou la responsabilité humaine dans le réchauffement, ou «l’urgence climatique», l’argument de l’absence de «consensus scientifique» revient sur la table. Mais que veut dire consensus ici ? Cette question, venue d’un lecteur, donne l’occasion au Détecteur de rumeurs d’expliquer pourquoi l’argument révèle une incompréhension du concept.

«Il n’y a pas de consensus des scientifiques sur le climat, la preuve, telle lettre signée par des scientifiques qui ne croient pas au réchauffement.» Sous diverses formes, cet argument revient périodiquement depuis 20 ans. Cette semaine encore, un document de ce genre a été envoyé à António Guterres, Secrétaire général des Nations Unies.

En réalité, cet argument traduit une confusion : un scientifique qui émet son opinion sur un sujet, et un scientifique qui publie une étude sur ce sujet, ce n’est pas la même chose.

Le Détecteur de rumeurs ne le rappelle sans doute pas assez souvent dans ses vérifications de faits, mais la base de la construction d’un savoir, en science, ne repose pas sur l’opinion d’un ou de plusieurs scientifiques, mais plutôt sur l’accumulation des études sur un sujet. Un consensus s’établit donc quand plusieurs études confirment la même chose dans un domaine particulier.

Ainsi, chaque fois qu’on entend, à propos du climat, le fameux chiffre « 97 % des scientifiques sont d’accord », on fait référence à 97 % des scientifiques qui ont publié une étude sur le réchauffement climatique. On parle d’un accord général, même s’il n’y a pas d’unanimité.

L’origine de ce pourcentage est une recherche de l’historienne des sciences de l’Université Harvard, Naomi Oreskes, en 2004 : sur 928 études publiées par des climatologues et contenant les mots-clés (en anglais) « global climate change », aucune n’était en désaccord avec le consensus sur la responsabilité humaine dans le réchauffement climatique. Depuis 2004, au moins 14 compilations similaires sont arrivées à des totaux variant entre 91 % et 100 %, tout dépendant du niveau d’expertise retenu pour figurer dans la compilation.

Non seulement y a-t-il donc consensus sur la responsabilité humaine, mais ce consensus aurait de surcroît augmenté entre 1991 et 2011, selon une de ces compilations.

C’est en vertu de cette même définition qu’on a coutume de dire que l’évolution fait consensus parmi les biologistes, ou que le caractère cancérigène du tabac fait consensus parmi les oncologues. Ce qui n’empêche pas que des gens détenteurs d’un diplôme en science peuvent bel et bien continuer de nier ces faits sur la base de leurs opinions personnelles.

Deux illustrations du problème :

«30 000 scientifiques ont signé une pétition signifiant leur opposition à la théorie du réchauffement»

Connue sous le nom de pétition de l’Oregon, ou Global Warming Petition Project, elle exhortait en 1998 le gouvernement américain à ne pas signer le Protocole de Kyoto et affirmait qu’il «n’existe aucune preuve scientifique convaincante» que les émissions de gaz à effet de serre risquent de provoquer un réchauffement planétaire. Deux décennies plus tard, des gens continuent d’alléguer que puisque «plus de 30 000 scientifiques» l’ont signée, c’est la preuve qu’il n’existe pas de consensus scientifique sur le climat. Toutefois, parmi les signataires, on ne retrouve pratiquement aucun scientifique qui ait publié une étude pertinente : plus du tiers ont un diplôme d’ingénieur, plusieurs milliers sont en médecine, en sciences aérospatiales, en biologie… II y avait aussi beaucoup de signataires fantaisistes ou fictifs.

500 scientifiques «contre l’urgence climatique»

Le 23 septembre 2019, un groupe envoyait au Secrétaire général des Nations Unies une lettre signée par «500 scientifiques» et proclamant «il n’y a pas d’urgence climatique». La liste des signataires principaux incluait des figures connues des groupes qui nient le réchauffement depuis des années, comme le Néerlandais Guus Berkhout (un ingénieur) le Québécois Raynald Du Berger (maîtrise en géophysique de l’Université Laval) et le vicomte Monckton de Brenchley (pas de diplôme en science), un Britannique qui s’est auto-proclamé membre de la Chambre des Lords et Prix Nobel (il n’est ni l’un ni l’autre).

La liste, avait révélé au début du mois le média en ligne DeSmog, est le résultat d’un effort coordonné de plusieurs groupes de pression libertariens, de droite ou d’extrême-droite, en Europe et aux États-Unis, et contient à ce titre plusieurs de leurs «vedettes» habituelles.

Science

Autisme, pesticides et PR: la suite

BLOGUE / La Fondation David-Suzuki a vivement réagi à mon billet de la semaine dernière au sujet de leur rapport sur le lien allégué entre les pesticides et l'autisme. C'était à prévoir, remarquez : je n'ai pas été particulièrement tendre envers leur document.

La FDS a publié sa réplique vendredi après-midi dernier. Par souci de transparence et d'honnêteté intellectuelle, je la reproduis intégralement ici. Autant vous avertir tout de suite, c'est long (et les points soulevés/développés ne me semblent pas tous très pertinents, mais bon). Je répondrai brièvement à cette réplique à sa suite.

Science

Les Canadiens ont moins confiance en la science, selon un sondage

Un sondage suggère que la confiance que les Canadiens ont envers la science est peut-être en train de s'éroder.

L'enquête, réalisée par le cabinet de sondage Ipsos pour le compte de la multinationale 3M, révèle que près de la moitié des personnes interrogées considèrent que les scientifiques sont élitistes et qu'un nombre important de personnes interrogées ignorent les découvertes scientifiques qui ne concordent pas avec leurs convictions personnelles.

«Bien que les sceptiques de la science représentent une minorité de Canadiens, leur nombre augmente», a déclaré Richard Chartrand de 3M Canada. «Cette tendance est préoccupante, car elle montre que la méfiance est en hausse.»

Ces données canadiennes sont tirées d'un sondage mondial mené entre juillet et septembre 2018 auprès de plus de 14 000 personnes. C'est la deuxième année que 3M effectue ce sondage.

À une époque où les changements climatiques et la perte d'espèces sauvages placent la science au sommet de l'ordre du jour public, le sondage indique que 32 % des personnes interrogées sont sceptiques à ce sujet. Le nombre de sceptiques s'élevait à 25 % l'année précédente.

«C'est passé d'une personne sur quatre à une personne sur trois», a noté M. Chartrand. «Il est difficile pour nous de comprendre pourquoi.»

Les résultats de l'étude étaient contradictoires. Bien que le doute soit en croissance, neuf répondants sur 10 ont déclaré avoir toujours confiance dans les résultats de recherches.

Près de la moitié — 44 % — ont déclaré qu'ils considéraient les scientifiques comme des «élitistes». Environ un tiers ont estimé que les scientifiques étaient influencés par l'ordre du jour du gouvernement. Un autre tiers pense que la science est influencée par les intérêts des entreprises.

Et 30 % ont indiqué qu'ils ne croyaient qu'aux sciences qui cadraient avec leurs convictions personnelles.

D'autres sondages ont fait écho à celui de 3M-Ipsos.

Question d’opinion

Un sondage Léger réalisé en 2017 pour le Centre des sciences de l'Ontario a révélé que 29 % des personnes interrogées pensent que comme les théories scientifiques peuvent être remises en question, on ne peut leur faire confiance. Une autre question a permis de constater que 43 % des répondants estiment que la science est une question d'opinion.

«C'est déprimant, mais pas trop surprenant», a déclaré John Smol, écologiste à l'Université Queen's, qui a écrit sur le sujet. «Il y a un réel décalage entre ce que font les scientifiques et la perception du public.»

M. Smol craint que les Canadiens ne comprennent pas comment fonctionne la science — ce sont les données qui comptent et non les croyances.

«Il y a certainement des idées fausses», a-t-il déclaré. «Vous ne pouvez pas leur en vouloir. Il existe une jungle de désinformation.»

Ce n'est pas la faute du public, affirme aussi Stephen Johnstone, qui dirige le département des sciences de la Terre et de l'atmosphère à l'Université de l'Alberta.

«Nous devons faire un effort pour communiquer dans des termes compréhensibles», a-t-il déclaré.

«En science, il y a déjà eu une éthique selon laquelle moins il y avait de gens qui comprenaient réellement ce que vous faisiez, meilleur était votre travail. Cela change.»

M. Smol abonde dans le même sens.

«Nous avons la responsabilité réelle de rendre la [science] accessible. Nous effectuons encore un travail relativement médiocre en ce qui concerne la traduction des données — généralement payée par les contribuables — et leur transmission au public.»

Science

Vapotage: des effets dévastateurs à craindre pour les poumons

LA SCIENCE DANS SES MOTS / Le vapotage cause de graves maladies chez de jeunes adultes et adolescents par ailleurs en bonne santé. Il provoque une toxicité et des lésions susceptibles de raccourcir l’espérance de vie et parfois même de tuer. Ses dégâts semblent irréversibles et inguérissables.

Un récent rapport, publié dans le New England Journal of Medicine, confirme que c’est bien le cas : 53 patients hospitalisés souffraient d’une grave toxicité pulmonaire et de lésions. L’âge moyen de ces patients était de 19 ans.

Dans sa brève histoire, le vapotage a mené à des hospitalisations, des semaines passées aux soins intensifs, des défaillances pulmonaires, un besoin urgent d’un appareil de pontage cardiopulmonaire et, après l’échec de toutes ces interventions, le décès tragique de ces jeunes par ailleurs en bonne santé.

Le Canada n'est pas à l'abris: un jeune de la région de London, en Ontario, pourrait être le premier patient canadien atteint d'une maladie pulmonaire causée par le vapotage, a indiqué le bureau de la santé publique de la région, mercredi.

En tant qu’expert scientifique en imagerie pulmonaire, je développe de nouvelles techniques afin de de pouvoir visualiser l’intérieur de la poitrine de façon à mesurer et surveiller aisément les anomalies pulmonaires des patients. Je constate les effets dévastateurs sur les poumons de fumeurs de cigarette et de cannabis. Je vois aussi la façon dont les bronches sont détruites et comment des millions de sacs alvéolaires paraissent abîmés ou même totalement détruits, résultant en de graves difficultés respiratoires, une piètre qualité de vie, puis la mort.

En raison des connaissances que j’ai acquises en développant de nouvelles techniques d’imagerie pulmonaire, et compte tenu de l’impact de l’inhalation du tabac et des gaz sur la santé pulmonaire, je suis préoccupée par le fait que les gouvernements et autres instances réglementaires aient choisi de se distancier des risques posés par la cigarette électronique.

Je suis très inquiète car le marketing de la cigarette électronique est à la fois persuasif, envahissant et répandu, en particulier quand il vise les enfants et les adolescents dont la croissance et le développement pulmonaires ne sont pas encore terminés.

Des substances huileuses à l’intérieur des poumons

Selon quelques rapports récents de patients souffrant de toxicité pulmonaire liée au vapotage, des substances huileuses ont été découvertes dans leurs globules blancs, leur tissu pulmonaire et leurs bronches.

S’il est possible que ces substances proviennent du mélange de nicotine et de THC contenu dans les cigarettes électroniques utilisé par ces patients il est encore difficile de comprendre et d’établir comment l’usage de la cigarette électronique induit ces maladies pulmonaires potentiellement mortelles.

Science

Le «lendemain de veille» des dinosaures...

Il y a 66 millions d’années, une météorite s’est écrasée sur la Terre, lançant une cascade d’événements qui allait mettre prématurément fin à la carrière des dinosaures. Mais que s’est-il passé au lendemain de la collision ? Dans l’heure qui a suivi ?

Ce sont les questions auxquelles ont voulu répondre les chercheurs qui ont analysé un forage du cratère de Chicxulub, qui gît aujourd’hui sous 1 000 mètres de calcaire, à cheval entre la péninsule du Yucatan et le Golfe du Mexique. Une «carotte» de roc de 130 mètres de long qui, décortiquée millimètre par millimètre, révèle une journée cataclysmique dont on devinait déjà les grandes lignes — mais la révèle pratiquement heure par heure.

Le genre de précision qu’on n’a pas l’habitude de voir en géologie, note dans le National Geographic la géologue Jennifer Anderson, qui commente le travail de ses collègues, paru lundi dans la revue Proceedings of the National Academy of Sciences.

La météorite a d’abord «temporairement» creusé un trou de 100 kilomètres de large et d’une trentaine de kilomètres de profondeur. Un impact qui a provoqué un tsunami s’éloignant dans la direction opposée au cratère, mais aussi catapulté de la roche jusque dans la haute atmosphère — et probablement au-delà, dans l’espace interplanétaire.

La plus grosse partie du matériel est retombée sur la terre ferme en quelques minutes, laissant une empreinte caractéristique — reconnaissable 66 millions d’années plus tard — d’une roche en fusion qui est retombée et s’est refroidie. En 30 minutes, l’océan a commencé à envahir le trou, par une ouverture du côté nord. Mais ce n’était qu’un avant-goût du déplacement qui allait se produire quand toute l’eau du tsunami allait revenir, quelques heures plus tard : des vagues de plusieurs centaines de mètres, renvoyées par les rivages les plus proches. Leur empreinte : une couche de 10 cm de sable et de gravier.

Ce qui ne se trouve pas dans le forage est aussi révélateur que ce qui s’y trouve, poursuivent les géologues : une absence de soufre, alors que les roches environnantes en sont riches. Une autre empreinte indirecte, à leurs yeux, de la quantité gigantesque de roche qui a été éjectée dans l’atmosphère, y libérant manifestement son soufre avant de retomber au sol. Et bien que le forage ne dise rien des jours qui ont suivi, cette quantité de soufre a dû avoir un impact sur le climat.

La journée n’était pas terminée. Des accumulations de charbon confirment que des incendies ont fait rage — et ont probablement brûlé pendant des semaines. Et là non plus, le cratère n’en dit rien, mais il est facile de déduire que ces incendies n’ont pas seulement brûlé à proximité : une partie de la roche en fusion éjectée dans l’atmosphère a pu servir d’allumette à de grandes distances.

Science

Formule 1: le mental joue pour «50 % sinon plus»

PARIS — La performance d'un pilote de Formule 1, «c'est au moins 50 % physique, 50% mental, sinon plus pour le mental», estime le docteur Riccardo Ceccarelli, fondateur de Formula Medicine et pionnier des méthodes d'entraînement à destination des pilotes.

Q : Quelles sont les spécificités de l'entraînement d'un pilote de Formule 1 ?

R : À titre de comparaison, le sport qui, pour moi, est le plus similaire est la boxe. Le boxeur doit à la fois être fort et rapide. Il ne faut pas que ses muscles soient trop gros, sinon il perd en vitesse. Le boxeur essaye aussi d'être au poids le moins élevé possible pour rester dans la catégorie inférieure. Il lui faut un temps de réaction très court, beaucoup de concentration, de la confiance en soi, ne pas avoir peur en allant au combat. Si vous considérez tous ces aspects, il y a beaucoup de points communs entre piloter une voiture et boxer.

Q : Quelle proportion prennent respectivement les préparations physique et mentale ?

R : Pour nous, c'est au moins 50 % physique, 50 % mental, sinon plus pour le mental. Quand vous avez atteint une haute condition physique et que vous pouvez piloter sans vous fatiguer pendant toute la durée de la course, il suffit de maintenir cela. Par contre, vous pouvez toujours progresser sur le plan mental et c'est cela qui améliore vos performances. Demander à un pilote d'enchaîner pendant une heure et demie soixante-dix tours au rythme des qualifications et sans faire aucune erreur est impossible. Ça serait comme demander à un marathonien de courir chaque kilomètre au même rythme. Il faut gérer son énergie, ses capacités et ça se joue dans le cerveau. Le rythme de course d'un pilote en bonne condition physique n'est pas limité par ses muscles mais par ses aptitudes mentales, sa capacité à rester concentré et à 100%.

Q : Comment travaillez-vous cet aspect mental ?

R : Nous disposons de deux gymnases jumeaux de la même superficie, l'un dédié au physique, l'autre au mental. Nous avons créé des logiciels pour travailler la concentration, la focalisation de l'attention, le temps de réaction, la coordination, la fluidité de mouvement, la flexibilité mentale, la capacité à effectuer plusieurs tâches simultanément... Ce qui est intéressant, c'est que nous mesurons non seulement la performance mais aussi le rythme cardiaque et l'activité cérébrale. C'est comme la télémétrie d'une voiture: nous pouvons savoir si vous gaspillez de l'énergie, si vous avez trop de pression au début, si vous vous fatiguez à la fin ou perdez en concentration, si vous pensez trop et ne restez pas assez focalisé... Pour plus de pression, jusqu'à quatre personnes peuvent participer au même test. Les pilotes sont en général tellement fiers et ont un tel esprit de compétition que la plupart sont alors moins performants et consomment plus d'énergie. C'est important de leur montrer que la compétition peut leur faire perdre de leur potentiel et qu'il faut arriver en course relaxé, l'esprit libre, sans trop réfléchir ou se fixer d'objectif, d'être juste calme et confiant. Pour résumer, c'est comme un détecteur de mensonges qui permet de déceler vos points faibles pour travailler ensuite dessus avec des psychologues de manière personnalisée. Le but est d'améliorer la performance tout en réduisant la consommation. Quand votre corps et votre esprit consomment moins, vous gérez mieux la pression, vos capacités et vos ressources. On parle de mental economy training («entraînement pour s'économiser mentalement», ndlr). C'est innovant car la préparation mentale était jusque-là l'affaire de psychologues ou de coachs qui travaillent avec la parole plutôt que de chiffres.

* * * * *

Propos recueillis par Raphaëlle Peltier.

Science

Le deuxième visiteur interstellaire est encore plus intéressant que le premier

Les astronomes sont dans un état d’excitation avancé : un autre objet interstellaire, la comète C/2019 Q4 (Borisov) serait entré dans notre système solaire, après le mystérieux Oumuamua de 2017. Et ce petit nouveau aurait plusieurs avantages sur Oumuamua.

Explication. On entend par objet interstellaire un corps céleste qui n’est pas en orbite autour de notre Soleil. Autrement dit, il ne s’agit même pas d’une comète dont l’orbite est si excentrique qu’elle met des milliers d’années à faire un tour complet. Il s’agit d’un astéroïde ou d’une comète qui est venu d’ailleurs… et qui va y retourner.

Qu’est-ce qui rend les astronomes si certains de leur coup, puisqu’ils n’ont détecté cet objet qu’alors qu’il était déjà relativement près de nous, et non au-delà de notre système solaire ? Deux choses : sa trajectoire — qui permet de déduire de quelle région du ciel il arrivait — mais surtout sa vitesse, qui fait en sorte qu’il ne sera pas capturé par l’attraction de notre Soleil et poursuivra sa route vers les étoiles.

Si l’intuition des astronomes se confirme quant à l’identité extrasolaire de la comète C/2019 Q4 (Borisov), celle-ci présentera trois avantages sur Ouamuama.

  • L’excentricité de son orbite : une planète comme la Terre, avec son orbite presque circulaire, a un facteur d’excentricité de presque zéro. Les comètes et les astéroïdes, y compris les plus «excentriques», oscillent entre 0 et 1. Oumuamua était à 1,2, ce qui en faisait déjà une anomalie. Alors que ce nouveau venu est estimé pour l’instant à 3,08.
  • Sa vitesse : à 41 kilomètres par seconde, c’est déjà plus rapide que tout autre objet de notre système solaire, suffisant pour échapper à la gravité de notre Soleil, sans compter qu’il va encore gagner de la vitesse à mesure qu’il va s’en approcher; le bémol ici, note l’astronome Phil Plait, est qu’un objet « normal » aurait pu gagner beaucoup de vitesse s’il s’était beaucoup approché de Jupiter, mais sa trajectoire n’étant pas parallèle à celle de notre système solaire, une telle rencontre avec Jupiter semble improbable.
  • Elle continue de s’approcher : alors qu’Oumuamua avait été découvert tandis qu’il s’éloignait déjà de nous, celui-ci, découvert le 30 août — par un astronome amateur russe appelé Gennady Borisov, d’où son nom provisoire — devrait être à son point le plus près de nous — à «seulement» 300 millions de km — au début de 2020, ce qui laisse présager que beaucoup de temps de télescopes initialement prévu pour d’autres choses sera consacré à cette bien modeste comète qui ne fait que quelques kilomètres de diamètre.

S’ajoute à cela le fait que si on a détecté deux objets venus d’ailleurs en seulement deux ans, il doit y en avoir beaucoup d’autres qui passent inaperçus dans notre voisinage.

Science

Peut-on réellement savoir ce que pensent les animaux?

LA SCIENCE DANS SES MOTS / Sarah, «la chimpanzée la plus intelligente au monde» est décédée en juillet dernier, à quelques jours de son soixantième anniversaire. Durant la plus grande partie de son existence, elle a servi de sujet de recherche, ce qui a permis aux scientifiques d’ouvrir une fenêtre sur le mode de pensée du parent le plus proche de l’humain.

La mort de Sarah nous donne l’occasion de réfléchir à une question fondamentale: peut-on réellement savoir ce que pensent les animaux? En m’appuyant sur mon expérience de philosophe, je postule que la réponse est non. Car il y a des limites de principe à notre compréhension de la pensée animale.

La pensée animale

Il ne fait guère de doute que les animaux réfléchissent. Leur comportement est trop sophistiqué pour n’être qu’instinctif. Mais il est extrêmement difficile de déterminer avec précision ce à quoi ils pensent. Notre langage humain n’est pas adapté à l’expression de leurs pensées.

Sarah est l’exemple parfait de ce casse-tête. Lors d’une étude célèbre, elle a choisi correctement l’objet nécessaire pour compléter une série d’actions. Face à une personne se débattant pour atteindre quelques bananes, elle a bien choisi un bâton plutôt qu’une clé. Alors que face à une personne enfermée dans une cage, elle a préféré la clé au bâton.

Ce qui a amené les membres de l’étude à conclure que Sarah possédait « une théorie complète de l’esprit », comprenant les concept d’intention, de croyance, et de savoir. Théorie immédiatement contestée par d’autres chercheurs. Ils doutaient que nos concepts humains puissent saisir avec exactitude le point de vue de Sarah. Bien que des centaines d’études additionnelles aient été menées depuis des décennies, le désaccord règne en maître quant à la caractérisation des concepts mentaux des chimpanzés.

La difficulté ne découle pas d’une incapacité à s’exprimer. Une fois un langage rudimentaire maîtrisé, le casse-tête Sarah ne relevait plus de savoir ce qu’elle pensait mais bien de comprendre ce que ses mots voulaient dire.

Les mots et leur sens

Il se trouve que le problème de l’association de leur sens aux mots est une obsession fondamentale des philosophes du XXe siècle. Parmi ceux-ci, W.V.O. Quine, probablement le philosophe le plus influent de la seconde moitié de ce siècle.

Professeur à Harvard, la renommée de Quine s’est construite sur l’idée de ce qu’il faudrait pour traduire une langue étrangère — un projet qu’il intitule la traduction radicale. Il conclut qu’il y aurait toujours plusieurs traductions possibles toutes aussi valables les unes que les autres. En conséquence, nous ne pourrons jamais définir le sens exact à attribuer aux mots d’une langue. Mais il a également fait remarquer que la traduction radicale était limitée à la structure même d’une langue.

Quine a inventé une langue étrangère sans aucun rapport avec les langues humaines connues. Je me servirais de l’allemand pour illustrer ce propos. Supposons qu’un germanophone prononce la phrase: Schnee ist weiss («La neige est blanche»). Ses amis sourient et acceptent le sens de cette phrase telle quelle. Malheureusement, il y a peu d’indices quant au sens de la phrase. Il y a plusieurs vérités et la phrase pourrait signifier n’importe laquelle de ces vérités.

Ce qui suggère une conclusion générale: si nous sommes capables de traduire des phrases d’une langue à l’autre, c’est essentiellement parce que nous pouvons traduire les mots d’une langue vers une autre langue.

Mais imaginons une langue dont la structure nous est totalement inconnue. Comment la traduire? Si, pour traduire des phrases, il faut en traduire les mots, mais que ces mots ne sont pas liés à notre langue, nous serions incapables de les reporter dans notre langue. Nous ne pourrions pas comprendre le sens de ces phrases.

Science

Vitesse d'expansion de l'Univers: la controverse continue

WASHINGTON — Les astrophysiciens savent depuis 90 ans que l'univers s'étend, et ils tentent depuis de mesurer la vitesse exacte de cette expansion. Mais différentes méthodes produisent des résultats différents, forçant les scientifiques à se demander si leur théorie du cosmos est solide.

Dans les années 1920, les astrophysiciens Georges Lemaître et Edwin Hubble ont découvert que l'univers était en expansion, au lieu d'être un terrain calme et borné. En 1998, deux équipes de chercheurs ont découvert que le rythme de cette expansion s'accélérait avec la distance, et que l'univers était rempli d'une mystérieuse «énergie noire» causant cette accélération, depuis 14 milliards d'années. Ils ont gagné le prix Nobel en 2011.

La vitesse est calculée grâce à la «constante d'Hubble». Cette constante est estimée de plus en plus précisément par les physiciens. Le problème est qu'elle est de 67,4 selon une méthode, et de 73 selon une autre. L'unité est en kilomètres par seconde par mégaparsec. Un mégaparsec égale environ trois millions d'années-lumière. Cela se lit ainsi: des galaxies situées à trois millions d'années-lumières (1 mégaparsec) s'éloignent de 67,4 (ou 73 !) kilomètres par seconde.

Les deux nombres semblent proches, mais pas pour les cosmologistes. Chaque méthode ayant une marge d'erreur faible, le fossé entre les deux résultats ne s'explique pas par une simple erreur de calcul: il y aurait donc un problème plus fondamental, quelque chose qui nous échapperait concernant l'univers et que la théorie actuelle n'est pas capable d'expliquer. Peut-être que l'équation expliquant le Big Bang et le cosmos a besoin d'être mise à jour.

«Des lois physiques inconnues»

La recherche actuelle, impliquant de nombreuses équipes dans le monde, consiste non seulement à affiner les mesures de distance des étoiles, mais aussi à trouver de nouvelles méthodes pour mesurer la vitesse de fuite des galaxies et peut-être résoudre ce que les physiciens appellent sobrement, au lieu d'une controverse ou d'une crise, la «tension» de la constante d'Hubble. Illustrant cette quête frénétique, une étude décrivant une méthode nouvelle, rédigée par des chercheurs de l'Institut d'astrophysique Max Planck en Allemagne et d'autres universités, est ainsi parue jeudi dans la revue américaine Science.

Ils sont parvenus à mesurer la distance de deux étoiles en observant comment sa lumière se courbe autour de grosses galaxies sur son trajet jusqu'à la Terre. Cette équipe a mesuré la constante à 82,4 km/s/mégaparsec, mais avec une marge d'erreur de plus ou moins 10 %, soit beaucoup plus que les mesures effectuées par d'autres équipes.

«Si la tension est réelle, cela veut dire que l'univers ancien était gouverné par des lois physiques inconnues», dit la cosmologiste Inh Jee à l'AFP, coautrice de l'étude. Le but de ces nouveaux travaux est de vérifier s'il y réellement un problème fondamental. Elle espère que d'autres observations réalisées avec sa méthode permettront de réduire l'erreur, qu'elle reconnaît être trop grande pour l'instant.

Interrogé par l'AFP, l'un des prix Nobel 2011 Adam Riess, de l'Université Johns Hopkins, confirme que ces nouveaux résultats ne sont pas assez précis pour vraiment peser dans la controverse, en tout cas pour l'instant. «Je ne pense pas que cela apporte grand chose à l'état actuel des connaissances. Mais c'est sympa que des gens cherchent des méthodes alternatives, donc bravo¢, conclut le célèbre astrophysicien dans un e-mail.

Science

Paludisme: une promesse venue du Nord

Région fragile, le Grand Nord québécois a encore beaucoup à nous apprendre. Il possède une biodiversité unique dont pourraient même être extraites des molécules susceptibles de nous soigner… ou de soigner des populations lointaines, selon une récente découverte.

L’équipe du chimiste Normand Voyer, de l’Université Laval, a en effet mis à jour de possibles propriétés antipaludiques dans des molécules des eaux froides de la baie de Frobisher, au Nuvavut. Et l’une des quatre molécules issues de ce champignon microscopique du genre Mortierella s’avère particulièrement prometteuse. «L’incroyable, c’est qu’une molécule du Nord pourrait aider à soigner une des pires maladies du Sud», la malaria, ou paludisme, relève le chercheur.

Certains moustiques des régions chaudes (les anophèles femelles) transmettent par piqûre à l’homme un parasite, du genre plasmodium. C’est ce parasite qui entraine le paludisme. Cette maladie infectieuse se caractérise par des symptômes voisins de la grippe : fortes fièvres, douleurs musculaires, affaiblissement, fatigue. Mais les conséquences peuvent être beaucoup plus graves : anémie, œdème pulmonaire, détresse respiratoire, jusqu’au décès pour les nourrissons et les jeunes enfants, les malades et les personnes avec un système immunitaire affaibli.

En laboratoire, les quatre molécules (mortiamide A, B, C et D) ont été testées sur différentes souches. Résultat : la mortiamide D a réussi à éliminer le parasite Plasmodium falciparum des globules rouges, in vitro, en 72 heures.

Il ne s’agit que d’une première étape : l’identification d’une molécule prometteuse. «Il nous faut comprendre son mode de fonctionnement et quelles sont les enzymes qu’elle affecte. Nous sommes encore loin d’un médicament», convient le chercheur.

Le Nunavut constitue un milieu de vie haut en stress avec son alternance de six mois de froid glacial et d’obscurité et de six mois d’intense rayonnement UV. Ce qui explique que les organismes indigènes se parent de moyens de défense performants pour assurer leur survie.

Si un champignon nordique possède de telles molécules, plus toxiques pour les parasites, c’est qu’il s’agit d’une défense chimique — la même stratégie de protection que le piment jalapeño avec ses molécules au goût piquant (capsaïcines), afin de ne pas être mangé.

À côté des prospections minières dans la mire du gouvernement provincial, dorment donc des richesses naturelles, terrestres et marines. «Mon rêve serait de préserver la chimio-diversité du Grand Nord avant que les changements climatiques ne les fassent disparaître», poursuit le Pr Voyer.

Lutte au paludisme

Malgré un recul des cas de paludisme dans le monde depuis près de 20 ans, cette maladie infectieuse stagne : on a compté 219 millions de cas en 2017. Elle fait encore des ravages en Asie, en Amérique centrale et du Sud et surtout en Afrique, où près de 90 % des décès surviennent — l’OMS en dénombrait 435 000 en 2017, majoritairement de jeunes enfants.

À l’autre bout du monde, les changements climatiques déplacent aussi les vecteurs de cette maladie, les anophèles, vers des altitudes plus élevées. La lutte prend de nombreuses voies : insecticides, moustiquaires imprégnées d’insecticides, assèchement de milieux humides… Avec une certaine efficacité, mais sans parvenir à éliminer l’ennemi.

«Nous avons fait beaucoup de progrès, mais il faut plus d’efforts pour éradiquer les moustiques porteurs du parasite», déclare le Professeur adjoint du Département de médecine sociale et préventive de l’École de santé publique de l’Université de Montréal, Thomas Druetz.

Le traitement actuel contre le paludisme — un dérivé de l’artémisinine qui provient d’une plante de Chine, l’Artemisia annua, donné en première ligne — connaît lui aussi des résistances. Même combiné avec d’autres traitements antipaludiques, il perd du terrain face au parasite.

«Les résistances que nous constatons pour les traitements actuels montrent que nous avons besoin de nouvelles molécules. La publication du Pr Voyer est intéressante, mais est à un stade très préliminaire; on ignore encore l’efficacité de cette molécule chez l’homme», relève encore le chercheur.

Pour sa part, le Pr Druetz étudie l’efficacité de médicaments de prévention face au paludisme saisonnier. Sa récente étude, auprès d’enfants du Mali, montre que cette stratégie diminue de 44 % le risque d’un diagnostic positif, mais aussi décroît le risque d’anémie modérée et sévère chez les enfants. Près de 12 millions de très jeunes enfants d’une douzaine de pays africains ont reçu ce type de traitement préventif.

Qui bénéficie de cette pharmacopée du Nord ?

À l’Université du Québec en Abitibi-Témiscamingue, le chercheur et directeur de l’École d’études autochtones, Hugo Asselin, a élaboré un répertoire de 546 taxons végétaux utilisés par les peuples autochtones de la forêt boréale canadienne. Le sureau, l’achilée, le thuya et bien d’autres plantes : un savoir qu’il importe de préserver

Mais ces plantes intéressent aussi les industries pharmaceutique et cosmétique sans que les premiers peuples en tirent des redevances ou une forme de compensation. «Qui bénéficie de cette pharmacopée du Nord ? Lorsqu’on fait des recherches et des produits à partir des ressources utilisées par les communautés, sans les associer, j’y vois un glissement vers une appropriation d’une richesse naturelle et je me questionne sur la dimension éthique», relève l’ethnobotaniste de l’Institut de recherche en biologie végétale de l’Université de Montréal, Alain Cuerrier. Il juge que les travaux du Pr Voyer sont ainsi dans une zone grise, parce que le Canada n’a pas ratifié le Protocole de Nagoya sur l'accès aux ressources génétiques et leur partage équitable.

Les chercheurs n’ont pas de droits acquis sur les ressources et les savoirs locaux et les recherches devraient bénéficier aussi à ceux qui y vivent, d’une manière ou d’une autre. «Il s’agit du territoire Inuit et les chercheurs ont un devoir de transparence et de consultation des communautés qui y vivent. C’est dommage que les autochtones n’aient pas été mêlés à ça ni les autorités autochtones consultées», relève encore le Pr Cuerrier.

Science

Surprise: les squelettes surnommés les «amants de Modène» étaient deux hommes

PARIS — Découverts enterrés main dans la main, ils sont rapidement devenus les «amants de Modène» mais surprise, une étude publiée dans Scientific Reports révèle que ces deux squelettes de l'Antiquité étaient des hommes.

Découvert en 2009 dans la ville de Modène en Italie lors de fouilles dans une nécropole datée entre le IVe et le VIe siècle, les deux individus étaient en trop mauvais état pour que les chercheurs puissent définir leur sexe. Leur inhumation, particulière, avait alors laissé penser qu'ils avaient été placés ainsi pour «montrer leur amour éternel», expliquent les chercheurs dans un communiqué de l'Université de Bologne.

Mais une nouvelle analyse met à mal cette lecture fleur bleue: l'émail dentaire des deux individus contiennent une protéine, appelée AMELY, apanage des hommes.
Une découverte qui rend ces deux squelettes, exposés à Modène, encore plus intéressants. «Dans le passé, plusieurs tombes renfermant des couples d'individus placés main dans la main ont été découvertes mais c'est toujours un homme et une femme», explique Federico Lugli de l'Université de Bologne, coauteur de l'étude.

Reste donc maintenant à découvrir ce qui liait ces deux hommes. «Nous pensons que ce choix symbolise une relation particulière entre les deux individus, mais nous ne savons pas laquelle, reconnait le chercheur qui aurait tendance à écarter tout lien amoureux du fait des pratiques sociales et des restrictions religieuses de l'époque. «À partir du règne de Justinien (527-565), les rapports sexuels entre hommes sont pleinement considérés comme un crime», précise l'étude.

«À la fin de l'Antiquité, il est peu probable qu'un amour homosexuel puisse être reconnu aussi clairement par les personnes qui ont préparé l'enterrement, explique le chercheur. Étant donné que les deux individus sont d'âge similaire, à peu près 20 ans, ils pourraient plutôt être parents, par exemple frères ou cousins. Ou alors ce sont des soldats qui sont morts ensemble au combat.»

Science

Maxime Bernier et le climat: «regardons les faits»

DÉTECTEUR DE RUMEURS / Au cours d’une entrevue accordée à l’émission 24/60 le 4 septembre, le chef du Parti populaire canadien a répété à plusieurs reprises son refus de parler d’une «urgence climatique», et a souligné qu’il fallait s’appuyer sur «les faits». Le Détecteur de rumeurs l’a pris au mot.

Maxime Bernier : Il y a 10 ans, c’était Al Gore qui nous disait, si on ne fait rien, le niveau des océans va monter et ça va être la fin pour certaines villes... À chaque 10 ans, on nous parle d’urgence climatique.

Fait : en citant Al Gore, Maxime Bernier faisait peut-être référence au militantisme environnemental. Mais il n’existe pas de tels cycles dans la recherche scientifique sur le climat ou sur les océans. La tendance lourde, depuis les années 1960, est plutôt constante : une accumulation de données allant de plus en plus dans la direction d’un réchauffement climatique anormalement rapide, causé en bonne partie par l’activité humaine.

MB : Est-ce que le niveau des océans augmente ? Non !

Fait : selon plusieurs études, le niveau des océans a monté en moyenne de 1,2 mm à 1,7 mm par année entre 1900 et 1990, et ces chiffres semblent avoir doublé depuis les années 1990. Si la tendance se maintient, entre les estimations les plus optimistes et les plus pessimistes, cela représentera, d’ici 2100, de 450 à 750 millions de personnes vivant aujourd’hui dans des zones qui seront submergées.

MB : Et on ne peut pas baser des politiques climatiques sur la peur... Moi je suis en train de dire qu'on doit bâtir des politiques publiques sur la raison et les faits.

Fait : la température moyenne de la Terre a augmenté d’un degré depuis un siècle et tout dépendant de la vitesse à laquelle nous réduirons nos émissions de gaz à effet de serre, on aura dépassé le seuil du degré et demi entre 2030 et 2040; le seuil des deux degrés pourrait être franchi avant 2100 — voire les trois degrés, dans les scénarios moins optimistes.

MB : Ce que je suis contre, c’est de dire que (c’est) la faute principale de l’activité humaine. Et il y a des scientifiques comme Patrick Moore, qui a quitté l’organisation qu’il a fondée lui-même, Greenpeace, il est un scientifique, et il dit qu’il y a plusieurs autres facteurs.

Fait : Patrick Moore n’a pas fondé Greenpeace, il en est devenu membre en 1971, comme en témoigne cette lettre fournie par Greenpeace. Moore a été un militant actif de Greenpeace Canada jusqu’au début des années 1980.

Fait : Patrick Moore ne publie pas de recherches, il est avant tout un lobbyiste rémunéré depuis 30 ans par différentes industries, en particulier le nucléaire, l’exploitation minière et forestière.

Le Détecteur de rumeurs ouvre ici une parenthèse : lorsqu’on lit dans les médias une phrase telle que «les scientifiques s’entendent sur le réchauffement climatique», on veut en réalité dire «les scientifiques qui ont publié des recherches sur le climat arrivent tous aux mêmes conclusions». Ou encore : « les scientifiques qui ont publié des recherches sur le climat dans des revues révisées par d’autres scientifiques arrivent tous aux mêmes conclusions». Le seul texte que Patrick Moore ait publié ces dernières années qui pourrait être qualifié de recherche est un document publié en 2016 pour le compte du Frontier Center for Public Policy, un groupe de pression de droite qui a affiché sa vive opposition aux «dommages politiques causés par le lobby de l’énergie verte».

MB : Regardez dans les faits. Regardez dans les faits. Je ne demande pas aux gens de me croire sur parole, je demande aux gens de faire leurs recherches, de regarder, je fais appel à l'intelligence des gens, et j'amène un autre point de vue au débat.

Fait : en science, tout n’est pas sujet au même type de « débat » qu’une discussion politique. L’évolution, par exemple, ne fait plus débat parmi les biologistes, l’astrologie ne fait plus débat parmi les astronomes, la Terre plate ne fait plus débat parmi les géographes. Ces sujets font consensus.

On entend souvent dire que «97 % des recherches publiées par des experts sur le climat» confirment la théorie du réchauffement climatique causé par l’homme. L’origine de cette affirmation est une recherche de l’historienne des sciences de l’Université Harvard, Naomi Oreskes, en 2004 : sur 928 études publiées par des climatologues et contenant les mots-clefs (en anglais) «global climate change», aucune n’était en désaccord avec le consensus sur le réchauffement climatique. Depuis, au moins 14 compilations similaires sont arrivées à des totaux variant entre 91 % et 100 %, tout dépendant du niveau d’expertise retenu pour figurer dans la compilation.

Science

L’un des plus gros animaux volants de l’histoire identifié au Canada [PHOTOS]

PARIS - Dix mètres d’envergure et 250 kilos: une nouvelle espèce de ptérosaure, gigantesque reptile volant qui vivait à l’ère du Crétacé, a été identifiée au Canada par une équipe de paléontologues.

Ce ptérosaure, appelé «Cryodrakon boreas», vieux d’environ 77 millions d’années, est l’un des deux plus gros animaux volants ayant existé, rivalisant par sa taille avec un autre ptérosaure connu, le «Quetzalcoatlus» (10,5 mètres), expliquent les chercheurs à l’occasion de la publication de leur étude dans le Journal of Vertebrate Paleontology.

Les fossiles avaient été découverts il y a déjà 30 ans dans la province canadienne de l’Alberta, mais les paléontologues les avaient alors associés au «Quetzalcoatlus», découvert au Texas.

Mais en les étudiant de plus près, il s’est avéré que ces fossiles provenaient finalement d’une espèce différente.

En comparant le squelette d’un jeune animal à l’os de cou géant, intact, d’un autre spécimen, les paléontologues ont déduit que le «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.

Il existe à ce jour plus de 100 espèces connues de ptérosaures, répartis en Amérique, en Asie et en Europe.

«C’est une belle découverte. Nous savions que cet animal était présent ici, mais maintenant nous pouvons prouver qu’il est différent des autres, et lui donner un nom», se félicite David Home, chercheur à l’Université Queen Mary de Londres et auteur principal de l’étude.

Cette découverte «nous donne une meilleure idée de la diversité des ptérosaures en Amérique du Nord et de leur évolution», ajoute le chercheur.

Comme les autres reptiles volants du Crétacé, le «Cryodrakon boreas» était carnivore. Il se nourrissait probablement de lézards, de petits mammifères et même de bébés dinosaures.

+



Un fossile d’un os du cou de «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.  AFP/QUEEN MARY UNIVERSITY OF LONDON/DAVID HONE



Science

D'autisme, de pesticides et de PR

BLOGUE / À première vue, quand un groupe d'intérêt publie un rapport qui s'appuie sur 158 études scientifiques, il y a de quoi se réjouir. On déplore constamment que la science a de la misère à se frayer un chemin jusque dans les débats publics, alors on ne va quand même pas bouder ce plaisir, hein ? Mais en cette matière comme en tant d'autres, le diable se cache souvent dans les détails, et le rapport de la Fondation David-Suzuki sur le lien entre autisme et pesticides en est simplement une preuve de plus.

Le rapport, paru la semaine dernière, est disponible ici. Il se présente comme une «revue de la littérature scientifique» et montre explicitement du doigt les pesticides comme une cause majeure, sinon la principale, de la hausse fulgurante des diagnostics d'autisme au cours des 20 dernières années — le nombre a été multiplié par presque 10 chez les élèves du Québec depuis 2001, d'après un graphique du rapport.

Le document a eu un bel écho, étant repris par plusieurs médias, malheureusement pas toujours de manière très critique — mais des fois oui, quand même. En fait, même le premier ministre François Legault a été cité comme qualifiant le phénomène de «grave» et «inquiétant», c'est tout dire. Alors il vaut la peine de regarder ce rapport de plus près. Voici ce que j'en retiens, en vrac :

- Vous avez dit «études» ? La bibliographie du rapport comporte bel et bien 158 références, mais ces «158 études» ne sont pas toutes des études à proprement parler, et celles qui en sont ne portent pas toutes sur le lien allégué entre les pesticides et l'autisme. On y trouve des rapports gouvernementaux, des études sur l'inflammation des poumons par des polluants (réf. 31), sur l'effet des polluants sur les mitochondries (partie des cellules qui fournit de l'énergie à la cellule, réf. 33), etc. Il y a aussi des études qui portent sur l'effet de la pollution en général sur l'autisme, dans lesquelles les pesticides sont décrits comme un facteur environnemental parmi d'autres, sans plus.

- Pas toutes pertinentes. Il y a bel et bien, dans ces références, des études qui suggèrent vraiment un lien entre les pesticides et l'autisme. La Fondation David-Suzuki en a d'ailleurs trouvé un assez bon nombre, disons-le. Mais même parmi elles, il s'en trouve qui ne sont pas aussi pertinentes qu'il n'y paraît. Quelques unes portent sur le DDT (et son dérivé, le DDE), un insecticide qui a été interdit d'utilisation au Canada... dans les années 70. Quelques autres examinent les effets d'un autre insecticide, le chlorpyrifos, dont le Canada s'apprête déjà à interdire la plupart des usages agricoles.

- Samsel et Seneff. Tant qu'à être dans ces études-là : sérieusement, Fondation David-Suzuki ? Samsel et Seneff ? Plusieurs «études» d'Anthony Samsel et Stephanie Seneff ?!? Eux qui ne sont vraiment pas des experts en toxicologie, le premier étant consultant pro bono en environnement et la seconde, chercheuse en informatique ? Eux qui ont lié le glyphosate (l'herbicide le plus vendu dans le monde) à littéralement toutes les maladies modernes, allant de l'autisme à l'obésité en passant par le cancer et quoi d'autre encore ? Eux dont les articles ont été totalement anéantis par à peu près tous les vrais experts qui ont perdu leur temps à les lire ? À quoi on joue là, au juste ?

Écoutez, même de proches collaborateurs de Gilles-Éric Séralini ont descendu les «études» de Samsel et Seneff en flamme. Pour mémoire, M. Séralini est l'auteur principal de la tristement célèbre étude de 2012 qui prétendait «prouver» que les OGM étaient cancérigènes, mais dont les faiblesses méthodologiques étaient immenses et dont les résultats ont ensuite été intégralement contredits par d'autres études mieux faites. Il a la réputation (amplement méritée) d'être extrêmement et inutilement alarmiste. Eh bien deux de ses collaborateurs ont conclu en 2017 que «les mécanismes et le vaste éventail de conditions médicales que Samsel et Seneff font remonter au glyphosate dans leurs commentaires sont au mieux des théories sans substance, des spéculations, ou simplement incorrectes».

Si même des chercheurs à la réputation un brin sulfureuse comme eux s'en distancient, ça en dit long sur la valeur de ces travaux. Or le rapport de la Fondation David-Suzuki cite plusieurs articles de Samsel et Seneff et consacre quelques paragraphes à défendre (en suivant une logique douteuse) leur crédibilité. Pincez-moi quelqu'un, je dois être en train de faire un cauchemar.

- Angles morts. Au-delà des références pas directement pertinentes et des sources douteuses — j'imagine que l'Alternative Medicine Review (réf. 132) a l'air pas si mal quand on cite Samsel et Seneff, joual-vert j'en reviens toujours pas de celle-là —, je répète qu'il y a d'authentiques études faites par des chercheurs sérieux qui suggèrent un lien possible entre l'autisme et les pesticides. On ne peut pas dire que le rapport de la Fondation David-Suzuki est basé uniquement sur du vent. Mais on peut certainement en dire qu'il a un angle mort é-nor-me : la génétique.

Le document passe très rapidement (en page 4) sur les causes génétiques de l'autisme, essentiellement pour en minimiser l'importance. Or nombre d'études récentes montrent justement que l'on a affaire à un phénomène très principalement génétique, mais la pas-si-bien-nommée «revue de littérature» de la Fondation David-Suzuki n'en dit absolument rien. Pas un mot sur la plus vaste étude jamais entreprise sur la question, pourtant parue cet été, qui a conclu que l'autisme est «héritable» (lire : génétique) à 80 %. Pas un mot sur celle-ci, parue en 2017, qui place l'héritabilité à 83 % et la part de l'environnement à 17 %. Pas un mot sur cette méta-analyse qui a agrégé les données des études de jumeaux sur l'autisme et a chiffré la part des gènes entre 64 et 91 %. Et j'en passe.

Or si l'environnement joue un si faible rôle, alors l'«hypothèse» avancée et présentée comme une quasi certitude par la Fondation David-Suzuki ne tient absolument pas la route : des facteurs secondaires ne peuvent pas expliquer (en tout cas, pas plus que très partiellement) que le nombre de cas ait été multiplié par 10. Et c'est encore moins plausible quand, comme la FDS, on se concentre uniquement sur une petite partie de ces facteurs environnementaux (les pesticides, mais on soupçonne bien d'autres causes environnementales par ailleurs).

Alors il faut logiquement regarder du côté des diagnostics (critères différents, meilleur dépistage, sensibilisation des milieux médicaux et de l'éducation, remplacement de diagnostics antérieurs par l'autisme, etc.) pour expliquer la hausse des cas. Mais la «revue de littérature» passe tout aussi rapidement là-dessus que pour les gènes, encore ici pour en minimiser l'importance. Et elle passe complètement sous silence des études comme celle-ci, par exemple, qui a trouvé qu'une part appréciable de ceux qui ont reçu un diagnostic de «trouble de développement du langage» dans les années 1980 auraient très probablement été considérés comme autistes s'ils étaient nés 20 ans plus tard.

Notons que tout ceci est entièrement cohérent avec les réactions d'experts quand sort une étude liant autisme et pesticides. Ils font presque tous valoir que l'on a affaire d'abord et avant tout à une question de gène et de diagnostic (voir ici, ici et ici).

* * * * *

Il n'y a pas 56 conclusions possibles à tout ceci : la FDS est partie avec une conclusion choisie à l'avance, qui cadrait avec son idéologie et avec le message politique et alarmiste qu'elle voulait véhiculer, alors elle s'est fabriqué une «revue de littérature» taillée sur mesure. Il fallait laisser entendre le plus clairement possible que les pesticides sont derrière la hausse des cas d'autisme, alors exit les causes à quelque 80 % génétiques, exit les questions de diagnostic. Et s'il faut gratter les fonds de tiroir jusque dans leurs racoins les plus obscurs pour grossir la «revue de littérature» avec des travaux non-pertinents ou spectaculairement faibles, so be it, comme on dit.

À sa décharge, le document comporte une section «Méthodologie» où l'on peut lire que la revue a été faite en utilisant uniquement des noms de pesticides comme mots-clefs. Et où il est spécifié que «cet examen n'a pas été conçu pour être exhaustif». À la décharge de sa première auteure, la directrice scientifique de la FDS Louise Hénaut-Éthier, elle a explicitement mentionné au Journal de Montréal que «je ne peux pas répondre sans équivoque : “les pesticides causent l’autisme”. Scientifiquement, je n’ai pas le droit». Elle affirme qu'elle et son rapport ne font qu'invoquer le principe de précaution.

Mais franchement, ça me semble tenir davantage du sauf-conduit commode que de la nuance sérieuse. Après avoir passé 30 pages à présenter une version partielle et déformante de la littérature scientifique, il suffirait d'enterrer une petite phrase en fin de document pour s'en dédouaner ? Après avoir martelé le message alarmiste «les pesticides causent l'autisme» sur toutes les tribunes disponibles (et en sachant très bien qu'il serait souvent relayé tel quel dans les médias et sur les réseaux sociaux), il suffirait d'une petite phrase pour faire semblant qu'on n'a pas dit ce qu'on vient de dire ?

À cet égard, la conclusion du document est assez parlante (mes soulignements) :

Science

Découverte de deux nouvelles espèces d’anguilles électriques à haute tension

PARIS - Deux nouvelles espèces d’anguilles électriques ont été découvertes dans les eaux douces amazoniennes, dont l’une capable d’envoyer des décharges de 860 volts, les plus puissantes jamais enregistrées dans le monde animal, selon une étude publiée mardi dans la revue Nature Communications.

Connues depuis plus de 250 ans, les anguilles électriques, de gros poissons pouvant mesurer jusqu’à 2,5 mètres, étaient jusqu’ici affiliées par les scientifiques à une seule espèce. L’identification de deux nouvelles variétés souligne à quel point la richesse de la biodiversité en Amazonie reste méconnue, selon cette étude menée au Brésil, en Guyane française, au Guyana et au Suriname.

«Pouvoir encore trouver de nouveaux poissons d’une telle taille dans la forêt amazonienne, en dépit des activités humaines qu’elle subit depuis 50 ans, montre qu’il reste énormément d’espèces à découvrir, dont beaucoup pourraient servir à la recherche médicale, ou susciter des avancées technologiques» explique à l’AFP Carlos David de Santana du muséum d’histoire naturelle Smithsonian à Washington, qui a dirigé les recherches.

Cette découverte «renforce la nécessité de préserver la plus grande réserve de biodiversité de la planète», ajoute le chercheur.

Les anguilles électriques, qui sont malgré leur nom plus proches des poissons que des vraies anguilles, passionnent les scientifiques de longue date du fait de leur capacité à produire de l’électricité - comme une batterie biologique - leur permettant, par un mécanisme d’électrochocs, de paralyser leurs proies à distance.

Leur anatomie a inspiré le physicien italien Alessandro Volta, l’inventeur de la première pile électrique - la pile voltaïque - en 1799. Elle a aussi servi la recherche sur les maladies neurodégénératives et, plus récemment, sur la pile à hydrogène pour implants médicaux.

Carlos David de Santana et son équipe ont découvert ces deux nouvelles espèces en étudiant l’ADN de 107 spécimens.

La première, appelée «Electrophorus voltaï», localisée au Brésil, est capable de produire des décharges allant jusqu’à 860 volts, soit 200 volts de plus que le record enregistré par l’espèce déjà connue, «Electrophorus electricus». La seconde espèce découverte, «Electrophorus varii», peut quant à elle produire des décharges atteignant les 570 volts.

Ce phénomène pourrait s’expliquer par une adaptation de cette espèce à son milieu aquatique, situé sur les hauts plateaux, où la conductivité électrique est faible.

Environ 250 espèces de poissons électriques vivent en Amérique du Sud. Tous produisent du courant électrique pour communiquer ou s’orienter, mais les anguilles électriques sont les seules à l’utiliser aussi pour chasser ou se défendre.

Science

Six trucs pour amener votre enfant à parler de sa journée

LA SCIENCE DANS SES MOTS / «Comment s'est passée ta journée à l'école?» «Bien.» Cela vous dit quelque chose ? C'est la réponse appréhendée à une question bien intentionnée que tout parent pourrait poser. Cette réponse donnée machinalement suggère que l'enfant limite l'information qu'il partage avec ses parents, ou qu'il n'en donne plus du tout, au sujet de sa journée à l'école.

Lorsque les parents entendent «bien», ils peuvent réagir de différentes façons. Certains peuvent chercher à obtenir plus d'information en posant plus de questions. Cependant, la recherche a montré que poser trop de questions peut sembler envahissant, en particulier pour les adolescents.

D'autres parents peuvent cesser de poser des questions parce qu'ils en ont assez d'entendre la même réponse. Cependant, la recherche a montré que les enfants qui perçoivent un faible intérêt de la part de leurs parents ont davantage de problèmes de santé mentale et de comportement.

Par conséquent, les parents peuvent se sentir découragés. Comment peuvent-ils amener leurs enfants à parler de leur journée sans les irriter ou les amener à se refermer davantage ?

À chaque âge ses questions

À tous les âges, des études ont révélé que la communication parentale peut protéger contre une faible estime de soi et un mauvais rendement scolaire. Une forte participation des parents peut aussi avoir une influence positive sur la participation des enfants à l'école, leurs objectifs éducatifs et leurs résultats. Et notamment, une communication positive peut renforcer le lien d'attachement entre parents et enfants.

Mais comme tous les aspects du développement, les compétences en communication se développent avec le temps.

Du concret pour les tout-petits

De la maternelle à la 1ère année, les conversations avec les jeunes enfants à l'école tournent généralement autour de sujets reliés à l'école, aux nouvelles amitiés ou aux expériences concrètes. Par exemple, un jeune enfant pourrait vouloir partager l'information suivante : «J'ai joué sur les barres de singe à la récréation !»

Vous pouvez aller plus loin avec votre jeune enfant en lui faisant décrire ses expériences. Par exemple, «J'ai vu que Justin a pris ton jouet aujourd'hui. Qu'est-ce que ça t'a fait ?» Il peut aussi être utile de l'aider à mettre des mots sur ses émotions, en verbalisant ce que vous remarquez, par exemple :

«On dirait que tu étais en colère parce que Justin a pris ton jouet.»

Parler des amis

De la 2e à la 3e année, les amitiés deviennent de plus en plus importantes pour les enfants. Ils peuvent être plus intéressés à parler de leurs nouvelles relations avec leurs pairs qu'à parler de leurs travaux scolaires. Essayez de montrer de l'intérêt en posant des questions sur leurs amis, par exemple :

«Parle-moi de tes amis. Qu'est-ce qu'ils aiment faire à la récréation ?»

Dévier la question

De la 4e à la 5e année, les enfants pourraient commencer à considérer vos questions comme des demandes, ce qui réduirait davantage le partage d'information. Il peut être plus facile d'aborder les sujets qui vous intéressent en faisant dévier les questions sur les pairs de votre enfant pour entamer une conversation. Vous pouvez tenter la question suivante :

«Que pensent tes amis du nouveau professeur de sciences ?»

Solliciter leur opinion

De la 1ère à la 5e secondaire, l'établissement de l'identité et de l'indépendance personnelles est un élément essentiel de l'adolescence. Par conséquent, votre adolescent(e) peut rechercher plus d'intimité et partager moins d'information avec vous. Vous pouvez soutenir ces étapes du développement en démontrant votre intérêt pour leurs opinions, en leur permettant d'avoir un peu d'intimité au besoin et en leur permettant de prendre part à la prise de décision familiale.

Quel que soit l'âge de votre enfant, gardez à l'esprit que les conversations positives, courtes mais fréquentes, que vous aurez avec lui au fil du temps sont toutes aussi valables que les conversations longues et approfondies que vous pourriez avoir avec lui.

Science

La planète a d'autres «poumons» que l'Amazonie

DÉTECTEUR DE RUMEURS / L’Amazonie est beaucoup de choses, mais elle n’est pas le seul «poumon de la planète» et elle ne produit pas 20 % de l’oxygène contenu dans l’air, comme on l’a souvent entendu ces dernières semaines. Le Détecteur de rumeurs survole ce qu’est et ce que n’est pas l’Amazonie.

L’origine de l’expression «poumon de la planète»

Nos propres poumons alimentent notre corps en oxygène. Pour cette raison, on utilise depuis longtemps l’analogie du poumon lorsqu’on veut expliquer le procédé appelé photosynthèse : comme toute plante, un arbre produit de l’oxygène. Par conséquent, plus une forêt est étendue, et plus grande est la quantité d’oxygène qu’elle produit.

Le seul défaut de cette analogie est que l’Amazonie n’est pas notre seul poumon : il y a d’autres forêts tropicales et surtout, il y a les océans.

Mais l’Amazonie produit tout de même 20 % de l’oxygène de notre planète ?

Les estimations à ce sujet varient, mais le vrai pourcentage est plus près de 16 % si on ne calcule que la photosynthèse qui a lieu sur la terre ferme (selon une étude de 2010). Si l’on calcule aussi l’oxygène produit dans les océans, par le phytoplancton, les estimations varient plutôt entre 9 % (selon un écologiste britannique) et 6 % (selon un climatologue américain).

Il est possible que l’erreur du 20 % ait son origine dans un calcul qui ne portait à l’époque que sur la terre ferme : sachant que les forêts tropicales sont responsables à elles seules de 34 % de la photosynthèse réalisée sur les continents, puisque l’Amazonie représente à peu près la moitié des forêts tropicales, on a arrondi à 20 %.

Si l’Amazonie joue un rôle mineur avec l’oxygène, en est-il de même avec le CO2 ?

Une forêt est ce qu’on appelle un « puits de carbone », c’est-à-dire que chaque plante absorbe du dioxyde de carbone ou CO2. C’est une autre partie du cycle naturel de la photosynthèse. Mais dans le contexte du réchauffement climatique, cela signifie aussi que chaque plante absorbe également une partie des surplus de CO2 que notre société moderne produit. C’est la raison pour laquelle, ces dernières années, plusieurs initiatives de réduction de notre empreinte carbone suggèrent de planter des arbres pour «absorber» en partie nos excès.

Or, brûler une forêt ne fait pas que retirer des puits de carbone. Chaque arbre brûlé envoie aussi du même coup dans l’atmosphère tout le carbone qu’il avait absorbé.

Les estimations là aussi varient, mais si on évalue à au moins 90 millions de tonnes de carbone la quantité emmagasinée dans la forêt amazonienne, cela fait de cette forêt le plus grand puits de carbone sur la terre ferme (les océans en absorbent davantage).

Par ailleurs, ce chiffre signifie que de brûler la forêt dans sa totalité ferait bondir de près de 10 % la quantité de CO2 dans l’atmosphère : cette quantité est actuellement de 410 parties par million (PPM), l’Amazonie en ajouterait une quarantaine. À titre de comparaison, la quantité de CO2 dans l’atmosphère était de 280 PPM pendant la majeure partie de l’histoire de l’humanité, jusqu’à la révolution industrielle, et elle croît à présent de 2 ou 3 PPM par année.

Risque-t-on de voir bientôt disparaître toute la forêt amazonienne ?

À l’heure actuelle, la moitié de la forêt est toujours protégée par le gouvernement brésilien contre la déforestation, malgré les politiques plus permissives du président Jair Bolsonaro.

Une étude parue dans Science en 2014 note également que seulement 3 % de la surface de l’Amazonie est propice à la culture de soja, qui est l’une des deux principales raisons — l’autre étant l’élevage de bovin — pour laquelle les fermiers cherchent à gagner des terres sur la forêt.

Toutefois, il n’est pas nécessaire de détruire toute la forêt pour que se produise le scénario du pire.

Pourrait-il y avoir un point de non-retour ?

Des scientifiques évoquent en effet la possibilité d’un «point de bascule» (tipping point), c’est-à-dire un seuil de déforestation au-delà duquel une large portion du reste de la forêt se dégraderait à cause de la diminution des pluies, pour se transformer en savane. Un processus qui, là aussi, relâcherait dans l’air d’énormes quantités de CO2. Aucun consensus n’existe sur ce que serait ce point de basculement.

Selon le Fonds mondial pour la nature, 17 % de la forêt amazonienne a disparu dans les 50 dernières années.

Le réchauffement climatique pourrait aussi y contribuer : une augmentation du nombre de périodes de canicule signifie plus d’eau qui s’évapore, donc un climat plus sec, donc des risques accrus de feux de forêt.

Les surfaces brûlées n’augmentent-t-elles pas à cause de Bolsonaro ?

Oui, la déforestation a repris, mais pas seulement à cause de Bolsonaro.v Le rythme de déforestation de l’Amazonie avait décliné de pas moins de 70 % entre 2004 et 2012, selon l’étude de 2014 parue dans Science. Mais il avait recommencé à augmenter sous la présidence de Dilma Rousseff, en 2012.

Sous Bolsonaro, le premier semestre de 2019 montre effectivement une accélération de cette hausse (39 % de plus que pendant le premier semestre 2018), selon l’Institut brésilien de recherches spatiales. Mais ce taux de déforestation demeure inférieur à ce qu’il était avant 2004.

L’Amazonie est-elle tout de même un trésor de biodiversité ?

On y compte au moins 16 000 espèces différentes d’arbres, 40 000 espèces de plantes, 2,5 millions d’espèces d’insectes, 2 200 de poissons, 1 300 d’oiseaux, 427 de mammifères et 380 de reptiles. Et ce n’est que ce qui a été recensé jusqu’ici. L’Amazonie pourrait abriter jusqu’à 10 % des espèces vivant sur la terre ferme de notre planète, bien qu’elle n’en représente que 1 % de la superficie.

L’Amazonie n’est-elle pas aussi habitée par des nations autochtones ?

On compte quelque 400 «tribus» autochtones dans l’Amazonie selon l’organisme Survival International. La plupart possèdent une langue et une culture qui leur sont uniques. Elles représentent plus d’un million d’habitants. Au Brésil, au moins une cinquantaine sont qualifiées par la Fondation nationale des Indiens comme «non contactées» ou «isolées», c’est-à-dire qu’elles évitent ou refusent tout contact avec le reste du monde.