Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Science

Homéopathie : vous avez dit «liberté» ?

BLOGUE / Le Dr Jean Drouin, qui avait encaissé son lot de critiques (and then some) il y a deux semaines à la suite de son appui très public à l'homéopathie, doit se sentir un peu moins seul maintenant. Le Syndicat des profs de l'Université Laval, où il donne des cours de clinique, vient de prendre sa défense au nom de la liberté académique... mais je ne pas sûr, bien honnêtement, que c'est bien de «liberté» dont on parle ici.

Retour en arrière. En novembre était lancée une «Coalition pour l'homéopathie au Québec», parrainée par nul autre que Thomas Mulcair. C'est à cette occasion que Dr Drouin s'est exprimé publiquement en faveur de l'homéopathie, attestant de son efficacité qu'il aurait constatée sur ses patients, disait-il. Et ce en dépit du fait que les études sur ces «traitements» échouent systématiquement à démontrer qu'ils sont supérieurs au placebo — pour peu que l'on s'en tienne aux études les plus solides.

L'Université Laval s'en était dissociée dans les jours suivants, laissant entendre que ses propos ne répondaient pas «aux exigences propres au milieu universitaire». Mais voilà que le Syndicat des professeur(e)s de l'UL (SPUL) vient soutenir Dr Drouin, jugeant les «remontrances» de l'université.

«Le professeur Jean Drouin, comme tous les professeur(e)s d’université, a le droit d’enseigner, d’effectuer des recherches ou de créer sans aucune contrainte, qu’elle soit institutionnelle ou externe, indique le SPUL dans un communiqué. Ce droit, nommé liberté universitaire, (...est défini par l'UNESCO) comme la capacité à faire de la recherche et à enseigner hors de toute contrainte doctrinale, de pressions institutionnelles et professionnelles. Elle inclut la liberté d’expression intra et extramuros.»

Il est bien évident que Dr Drouin a le droit à ses opinions, qui vient naturellement avec le droit de les exprimer librement. Et il va de soi qu'un syndicat défende ses membres. Je n'ai rien à dire là-dessus. (Transparence totale : je suis techniquement employé de l'UL cet automne, à titre de chargé de cours.)

Mais je vous pose (sincèrement et naïvement) la question : dans la mesure où l'inefficacité de l'homéopathie a été maintes fois démontrée et fait désormais l'objet d'un consensus scientifique bien établi, l'appui à cette croyance relève-t-il de la «liberté universitaire» ?

D'un côté, je me dis que toutes les libertés ont leurs limites, faute de quoi elles finissent toujours par mener à l'absurde. Si, par exemple, un géophysicien affirmait que la Terre est plate et qu'il refusait obstinément de constater l'évidence patente qu'elle est ronde, il me semble qu'il serait très difficile d'invoquer la «liberté universitaire» pour justifier sa conduite. On aurait plutôt affaire à un abus de cette liberté, puisque sa fonction première est d'aider à faire progresser les connaissances — pas de permettre que l'on s'enferme dans des faussetés envers et contre tous les faits et études probants. Et à cet égard, la «contrainte doctrinale» que dénonce le SPUL ne me semble pas du tout être du côté de la direction de l'université.

Mais d'un autre côté, je ne peux pas ignorer le fait qu'une telle liberté doit aussi, forcément, inclure la liberté d'avoir tort. Il peut y avoir quelque chose d'utile à ce qu'un savant remette en doute un consensus scientifique solide, ne serait-ce qu'en stimulant des recherches/répliques qui déboucheront sur de nouvelles confirmations dudit consensus. On me répondra sans doute ici que le résultat n'est pas toujours aussi utile et que l'effet final est souvent de faire faire du sur-place à la recherche et de gaspiller des fonds en réexplorant continuellement les mêmes questions, ce qui est vrai. Mais il demeure que même le GIEC, par exemple, sollicite encore l'avis de climatosceptiques notoires, justement pour «tester» davantage ses conclusions. On ne peut donc pas dire que ce genre d'exercice est toujours et systématiquement inutile.

Alors, à votre avis ? Est-ce que cela fait vraiment partie de la «liberté universitaire» que de défendre l'homéopathie (ou quoi que ce soit d'autre) en dépit des données probantes ?

Justice et faits divers

Amende record pour CFG Construction

À faute lourde, amende pesante. La Cour du Québec impose une amende record de 345 000 $ à l’entreprise CFG Construction, coupable de négligence criminelle ayant causé la mort d’un camionneur en septembre 2012.

Le 11 septembre 2012, le camionneur Albert Paradis est envoyé par son employeur chercher des rebuts d’acier dans un chemin forestier du chantier du parc éolien de la Seigneurie de Beaupré. Il a comme consigne de charger le conteneur de son camion au maximum de sa capacité.

Les freins du vieux camion Volvo fonctionnent à 53 % de leur capacité et le système de freinage n’a pas moins de défectuosités majeures. L’insouciance du mécanicien et du dirigeant du garage de CFG Construction est à blâmer, tranchera la juge Hélène Bouillon.

Le camion va se renverser dans une courbe et sera retrouvé au bas d’une pente. Albert Paradis, 50 ans, père de trois enfants, meurt seul, à côté de son poids lourd.

Les dirigeants de l’entreprise CFG Construction ont laissé Paradis conduire un camion vétuste dont ils savaient les freins déficients, conclut le tribunal.

Ils méritent aujourd’hui une peine significative pour punir un comportement «qui a porté atteinte aux valeurs de notre société et notamment celles entourant la santé et la sécurité du travail», écrit la juge Bouillon. La peine doit de plus «envoyer un message clair à toute entreprise qui serait tentée d’adopter cette même conduite», ajoute-t-elle.

Le Code criminel prévoit que l’amende est la seule peine pouvant être imposée à une organisation reconnue coupable d’une infraction criminelle.

Pour cette négligence criminelle qui s’est étalée sur plusieurs mois, la Couronne réclamait une amende de 500 000 $, du jamais-vu au Québec.

La défense soutenait qu’en raison de sa faible capacité financière, CFG Construction devrait se voir imposer une amende 10 fois moindre, soit 50 000 $.

La juge Bouillon a choisi d’imposer une amende globale de 345 000 $ qui sera payable sur quatre ans.

CFG a tiré profit de sa négligence, rappelle la juge Bouillon, car les sommes qui auraient dû être investies dans l’entretien et la réparation du camion «ont clairement constitué un avantage pour CFG Construction, soit celui de se sortir au plus vite de son impasse économique et de son insolvabilité».

Risque de récidive

Depuis 2012, CFG a été condamnée à de nombreuses reprises pour des infractions à divers règlements et au Code de la sécurité routière. Sa licence d’entrepreneur en construction a été suspendue durant un mois en 2018.

«Une entreprise avertie à répétition par les autorités compétentes et par les tribunaux, qui n’apporte pas de changements significatifs à ses comportements répréhensibles et dangereux, compromet la sécurité sociale», écrit la juge Bouillon, ajoutant que la réhabilitation de l’entreprise est loin d’être acquise et que le risque de récidive est toujours présent.

Exceptionnelle probation

Le nombre d’infractions de toutes sortes démontre que les faibles mesures mises en place par l’entreprise ne sont pas suffisantes pour assurer la sécurité des 60 travailleurs à temps plein et 250 employés occasionnels sans compter celle du public.

C’est pour cette raison que la juge Hélène Bouillon a choisi de mettre CFG Construction en probation durant trois ans, mesure inusitée dans le monde des entreprises.

CFG devra embaucher un consultant externe qui évaluera la situation et proposera des correctifs.

L’entreprise devra notamment donner une formation annuelle à ses employés sur la conduite de véhicule lourd et fournir aux autorités une copie du rapport annuel d’inspection de la SAAQ.

CFG Construction a interjeté appel de sa condamnation en Cour du Québec.

L’entreprise devra verser au total près de 200 000 $ à la CNESST pour le décès de son travailleur, dont 120 000 $ ont déjà été remis à la veuve d’Albert Paradis.

La compagnie s’expose aussi à des amendes de 83 000 $ selon l’évolution du dossier pour les accusations pénales.

Plus de sept ans après le décès de son mari, Sylvie Dionne était de nouveau de retour dans une salle de cour, pas très loin de Franky Glode, le patron d’Albert Paradis.

En parallèle à la preuve froide et technique, la juge Bouillon a retenu beaucoup de choses du témoignage de la veuve et de ses trois enfants, lors des représentations sur la peine. «La présence d’une douleur qui transperce la peau, la perte de la paix de l’âme, un vide immense, une rage indescriptible, un ouragan subi de plein fouet et la sensation de basculer dans le vide», résume la juge.

Science

La science et la rigueur au cœur des échanges avec Jean-François Cliche

La série de soirées «Conversation avec nos chroniqueurs» s’est conclue de merveilleuse façon lundi soir avec le chroniqueur scientifique Jean-François Cliche qui a partagé avec nos lecteurs les coulisses de son métier devant une salle comble, au Diamant.

Journaliste au Soleil depuis 2001, Jean-François Cliche est à la barre de la chronique Science au quotidien dans laquelle il répond aux questions des lecteurs depuis 2007. Il tient aussi la populaire rubrique «Vérification faite», qui soumet à l’épreuve des faits différentes croyances ou affirmations.

Et le public de lundi a montré à quel point il apprécie la rigueur et le sens de la nuance de notre chroniqueur. Les questions, nombreuses et pertinentes, touchaient une foule de sujets allant de l’environnement à la médecine en passant par la crédibilité des sources et la démarche journalistique en cette ère où plusieurs questions scientifiques polarisent le débat public.

Quatrième soirée

Il s’agissait de la quatrième et dernière soirée de cette série devant les fidèles lecteurs du Soleil, après Richard Therrien en septembre, François Bourque en octobre et Mylène Moisan en novembre. Surveillez Le Soleil pour les détails concernant d’autres événements publics à venir. Le Soleil n’a pas fini de vous surprendre et, surtout, de venir à votre rencontre. Merci pour votre présence et votre soutien de tous les instants.

Science

L’acte de naissance de la climatologie

SCIENCE AU QUOTIDIEN / «On ne parle plus de changements climatiques, mais d’urgence climatique déclarée par le GIEC [Groupe intergouvernemental d’experts sur le climat, ndlr]. Or leurs calculs sont basés sur des mesures remontant au début du XXe siècle et même à 1850, en pleine Révolution industrielle. Et on parle ici de mesures pour la planète entière. Mais depuis quand pouvons-nous mesurer précisément la température de la planète ? Et comment pouvons-nous être sûrs que nos comparaisons avec les époques précédentes sont fiables ?», demande Bertrand Bouchard, de Beauport.

Mesurer le temps qu’il fait à l’échelle de la Terre n’est pas une mince tâche. D’après l’Organisation météorologique mondiale, on peut compter de nos jours sur un «réseau» mondial de pas moins de 10 000 stations météo «de surface» (au sol), 1000 stations dans les airs, autant de bouées dérivantes en mer et une centaine de bouées fixes, sans compter les données recueillies par des centaines de radars météo, quelque 7000 navires et 3000 avions commerciaux, de même que 16 satellites météorologiques et une cinquantaine de satellites de recherche. Mais il n’en a évidemment pas toujours été ainsi.

L’invention du thermomètre remonte autour de l’an 1600, et il n’a pas fallu grand-temps avant qu’on s’en serve pour faire de la météo. La plus ancienne série de mesures de température prises quotidiennement (et même plusieurs fois par jour) que l’on connaisse a débuté en Angleterre en 1659 — et elle est toujours active à ce jour ! On y voit d’ailleurs assez clairement une tendance au réchauffement, mais elle souffre de deux problèmes majeurs. Le premier, c’est que comme toutes les autres mesures météorologiques, elle ne vaut que pour une région particulière, le centre de l’Angleterre dans ce cas-ci. Pas moyen de déduire une température moyenne pour le globe au complet à partir de ça (j’y reviens).

Le second problème, c’est que ces mesures n’ont pas toutes été prises au même endroit et de la même manière, mais sont plutôt une collection de séries maintenues par des amateurs (il n’y avait pas de «pros», à l’époque), indépendamment les uns des autres. Le pionnier britannique de la climatologie Gordon Manley (1902-1980) les a toutes mises ensemble et a tant bien que mal comblé des «trous» là où les séries ne se chevauchaient pas. Et même quand elles se chevauchaient, on les considère comme peu fiables jusque autour de 1770 — avant cela, la norme était de placer les thermomètres non pas dehors, mais à l’intérieur, dans des pièces non chauffées, ce qui les rendait moins sensibles aux changements de la «vraie» température extérieure.

Les problèmes de ce genre étaient d’ailleurs répandus à l’époque. Dans un fascinant article sur les débuts de la météorologie au Québec, la chercheuse de McGill Victoria Slonosky note elle aussi que jusqu’à la fondation du Service météorologique du Canada en 1871, les seules séries de mesures dont on dispose étaient surtout des initiatives individuelles de qualité variable. Leurs séries ne se chevauchent pas toutes (entre les mesures du naturaliste Jean-François Gauthier, au milieu du XVIIIe siècle, et celles du Britannique Alexander Spark, il y a un trou de près de 50 ans !), les mesures ne furent pas toutes prises de la même manière ni aux mêmes heures, etc. En outre, ce n’est pas avant le milieu du XIXe siècle que l’usage d’abris à thermomètre (pour les protéger de l’influence des vents et de l’exposition directe au soleil) ne s’est vraiment généralisé, note Mme Slonosky.

Mais quand même : avec le temps, non seulement les techniques se sont améliorées et standardisées, mais le nombre de stations météorologiques a également explosé, un peu partout dans le monde. Si bien que quelque part entre le milieu et la fin du XIXe siècle, la température a commencé à être mesurée de manière suffisamment fiable et sur une superficie suffisamment grande pour que, aux yeux des climatologues, l’on puisse en tirer une moyenne planétaire satisfaisante.

Certains disent que les incertitudes demeurent trop grandes avant 1880, d’autres «osent» se rendre jusqu’aux années 1850. Dans tous les cas, ce n’est ni parfait, ni aussi précis et complet que les mesures que l’on prend maintenant. Comme le montre la carte ci-dessous, il restait encore de vastes zones d’ombre où l’on n’avait très peu, sinon pas du tout de mesures — notamment les pôles, le bassin versant de l’Amazone et de grands pans d’Afrique. Mais dans l’ensemble, les climatologues considèrent qu’à partir de la fin du XIXe siècle, on a assez de données prises dans assez d’endroits pour donner une idée raisonnablement précise de la température mondiale.

Science

Le ciel de décembre 2019: Mira la merveilleuse

La fin de l’année nous permet d’observer et de suivre l’une des plus fascinantes étoiles variables : Mira. Située dans la constellation de la Baleine, elle est bien positionnée dans le ciel du Québec à la fin de l’automne et pendant l’hiver.

La variabilité d’Omicron de la Baleine a été officiellement découverte par l’astronome hollandais David Fabricius en 1596, bien que cette étoile ait été observée par Hipparque de Nicée au deuxième siècle avant notre ère et remarquée par bien d’autres observateurs au cours des siècles. Fabricius a d’abord cru qu’il s’agissait d’une nova qui disparaissait après avoir brillé pendant quelques semaines. À sa grande surprise, il l’observa à nouveau en 1609. C’est Johannes Hevelius qui, en 1642, lui donna le nom de Mira, « la merveilleuse » en latin.

Rapidement, les astronomes vont s’apercevoir que Mira réapparaît dans le ciel de façon régulière, la luminosité de l’étoile variant selon un cycle de 332 jours. Au maximum de sa brillance, Mira est facilement visible à l’œil nu, tandis qu’elle n’est perceptible qu’à l’aide de télescopes lorsqu’elle se trouve près de son minimum.

Au cours du cycle actuel, on prévoit que Mira aura atteint son éclat maximum vers le 15 novembre, et qu’elle demeurera observable à l’œil nu jusqu’à la fin de janvier 2020. Notons toutefois que la variation de luminosité n’est pas constante d’un cycle à l’autre; il est donc difficile de faire des prévisions précises sur le maximum ou le minimum de luminosité que l’étoile atteindra.

Qu’est-ce qui fait varier Mira ?

Mira est une étoile géante rouge, comme le deviendra le Soleil vers la fin de vie. Après avoir épuisé l’hydrogène dans son noyau, elle est passée à un autre stade de son évolution. Son noyau est maintenant entouré par des couches d’hydrogène très dilatées, ce qui en fait une étoile très grande, émettant beaucoup de lumière, mais relativement froide en surface.

Mira est ce qu’on appelle une variable pulsante, car son diamètre varie de façon périodique. Lorsque le diamètre de l’étoile est à son minimum, la chaleur force les couches externes à se dilater; elles se refroidissent alors tout en émettant plus de lumière. Puis, arrive un point où la chaleur n’arrive plus à dilater les couches externes de l’étoile. Le processus s’inverse alors et les couches se contractent tout en se réchauffant.

Au minimum de son cycle, Mira est 664 fois plus grande que le Soleil et sa température de surface est alors de 3200 degrés Kelvin (celle du Soleil est de 5750 K). Lors du maximum, Mira est 804 fois plus grande que le Soleil, et sa température diminue à 2900 K. Mira émet surtout de la lumière infrarouge, mais en lumière visible, elle est environ 1500 fois plus brillante au maximum que lors de son minimum : c’est ce qui explique qu’elle passe ainsi de l’imperceptibilité la plus complète à une visibilité relativement aisée.

Profitez donc des prochaines semaines pour observer la merveilleuse Mira pendant qu’elle est visible à l’œil nu.

Un festin planétaire

En décembre, l’éclatante Vénus illumine nos débuts de soirée et brille de tous ses feux au-dessus de l’horizon sud-ouest au crépuscule.

Au début du mois, Jupiter et Saturne escortent Vénus dans le ciel. Le soir du 1er décembre, vers 17 heures, la Lune accompagne notre trio planétaire. Vénus sera alors à 7 degrés au-dessus de l’horizon, avec Jupiter plus bas sur sa droite et Saturne plus haut sur sa gauche. Le croissant lunaire reposera quant à lui un peu plus haut et sur la gauche de Saturne.

Chaque jour, Jupiter se rapproche du Soleil et devient plus difficile à repérer. La planète géante disparaît dans les lueurs solaires au milieu du mois. Saturne suit le même chemin que Jupiter, mais restera visible jusqu’à la fin de l’année.

Ne manquez pas le début de la soirée des 10 et 11 décembre, alors que Vénus et Saturne passeront à moins de 2 degrés l’une de l’autre. Les 27 et 28 décembre, au crépuscule, la Lune se joint aux deux planètes. Le 27, le mince croissant lunaire sera juste en haut et à gauche de Saturne, bas à l’horizon sud-ouest, 30 minutes après le coucher du Soleil. Le lendemain, la Lune reposera seulement 3 degrés sous Vénus.

Mars est visible aux premières lueurs de l’aube une quinzaine de degrés au-dessus de l’horizon sud-est. Le 22 décembre, le croissant de Lune brillera au-dessus de la planète rouge. Le lendemain matin, le mince croissant lunaire sera en bas et à gauche de Mars.

Mercure sera visible le matin en première moitié de décembre, environ 45 minutes avant le lever du Soleil. Elle sera malheureusement basse sur l’horizon sud-est, à peine 10 degrés en début de mois. Au fil des jours, la planète se rapproche du Soleil et de l’horizon et devient difficile à repérer. On la perd dans les lueurs de l’aube à la mi-décembre.

Enfin, le solstice se produira le 21 décembre à 23 h 19 HNE, marquant le début officiel de l’hiver dans l’hémisphère Nord.

Nous vous souhaitons de joyeuses Fêtes remplies de belles observations astronomiques!

André Grandchamps est astronome au Planétarium Rio Tinto Alcan.

Au Planétarium de Montréal :

Un seul billet pour voir tous les films présentés le jour de votre visite au Planétarium Rio Tinto Alcan. Consultez l’horaire sur notre portail Web à espacepourlavie.ca.

Science

INRS : 50 ans qui ont façonné le Québec

LA SCIENCE DANS SES MOTS / À l’automne 1969, le scientifique Charles E. Beaulieu reçoit un coup de fil du vice-président de l’Université du Québec, Pierre Martin, qui veut doter le Québec d’un institut national de recherche. Pour relever ce défi, Charles E. Beaulieu appuie sa réflexion sur un rapport de l’OCDE, paru la même année, qui déplore que les trois grands moteurs de la recherche scientifique en Occident – les gouvernements, les universités et l’industrie – travaillent en vase clos. Visionnaire, il propose à Pierre Martin de mettre en place un institut unique, doté de centres de recherche thématiques axés sur les problèmes de la société québécoise : l’eau, l’énergie et l’urbanisation.

Rappelons-nous qu’à l’époque, ceux que nous appelions les Canadiens français affichaient un retard important sur le plan de la scolarisation, avec un taux de fréquentation universitaire parmi les plus bas en Amérique du Nord. Les opportunités de carrière en recherche étaient rares et les chercheurs du Québec n’obtenaient qu’une très faible part des subventions de recherche fédérales. L’institut à naître devait briser cet isolement et propulser le Québec en avant.

C’est ainsi que l’Institut national de la recherche scientifique voit le jour le 3 décembre 1969. La nouvelle sera officialisée deux semaines plus tard en conférence de presse par le ministre de l’Éducation Jean-Guy Cardinal. La mission de l’INRS se résume ainsi : contribuer au développement économique, social et culturel en œuvrant dans des domaines stratégiques pour le Québec.

Un demi-siècle plus tard, en tant que scientifique, je suis particulièrement fier de diriger cette organisation avant-gardiste. Sa conception particulière, constituée de centres de recherche multidisciplinaires répartis sur l’immense territoire de la vallée du Saint-Laurent, a permis d’obtenir des résultats concrets. L’INRS, malgré sa taille modeste, a joué un rôle clé dans le développement du Québec. Les modèles mathématiques des chercheurs installés à Québec ont permis la construction de barrages hydroélectriques à la Baie-James. Les avancées scientifiques sur la reconnaissance de la parole, achevées en collaboration avec l’industrie, ont contribué à transformer Montréal en chef de file dans le domaine de l’intelligence artificielle. En partenariat avec le milieu communautaire, nos chercheuses ont collaboré de manière significative à l’élaboration de la politique familiale du Québec, à l’origine des CPE, où grandissent aujourd’hui nos enfants. Nous hébergeons également l’un des plus importants laboratoires de contrôle du dopage au monde qui effectue des tests pour plusieurs fédérations sportives internationales. Et c’est sans compter nos expertises reconnues dans les domaines de la physique des lasers et de la lutte aux maladies infectieuses. Ces réalisations illustrent bien le rôle de la recherche scientifique dans nos vies.

Nous sommes maintenant à l’œuvre pour développer le Québec de demain, dans des domaines névralgiques : les énergies renouvelables, l’eau, la jeunesse, le transport actif, la valorisation des déchets industriels ou agricoles. Permettez-moi de rêver à l’impact que pourrait avoir l’INRS si on lui donnait les moyens de se saisir de nouveaux enjeux stratégiques pour la société québécoise, que ce soit dans les domaines de l’environnement ou de l’alimentation, entre autres. Puissent les cinquante prochaines années être marquées par la reconnaissance de notre capacité à contribuer au développement de la société. En terminant, je salue les visionnaires qui ont eu l’audace de créer cette institution, notamment le ministre de l’Éducation de l’époque, M. Jean-Guy Cardinal, le premier président de l’INRS, M. Louis Berlinguet, le premier directeur général, M. Charles E. Beaulieu. Vous avez doté le Québec d’un puissant véhicule de recherche et de formation.

Science

Sel sur les routes : vers un épandage de précision

Le climat nordique nous pousse à saler les routes en hiver afin de les rendre sécuritaires. Un déversement qui se poursuit souvent l’été pour limiter la poussière des voies les plus fréquentées. Or, depuis de nombreuses années, les chercheurs ciblent ces sels d’épandage comme étant nocifs, non seulement pour les écosystèmes des bords des routes, mais aussi pour les milieux humides.

Car ils se retrouvent dans les lacs et les rivières. «Le chlorure de sodium, le plus utilisé, affecte les populations aquatiques, explique Claudie Ratté-Fortin. Il est toxique pour les poissons et les mollusques — à forte dose, c’est létal pour eux — et modifie l’équilibre du phytoplancton et la croissance des algues», poursuit celle qui est candidate au doctorat en sciences de l’eau au Centre Eau Terre Environnement de l’INRS.

Avec deux autres jeunes collègues, Anne Carabin et Patricia Gomez, l’étudiante a développé un outil de gestion, le GuIA. Cette plateforme interactive soutenue par l’intelligence artificielle vise à optimiser l’épandage en recommandant le meilleur mélange de fondant et la quantité à appliquer sur un tronçon de route précis, en fonction de la météo ambiante.

Les premières simulations, menées dans le quartier Limoilou de Québec, ont permis une réduction de 10 à 40 % de la quantité de fondants à déverser. «La bonne dose au bon moment au bon endroit, explique Karim Chokmani, est un principe connu en agriculture mais moins appliqué en sécurité routière, où l’on a tendance à en mettre trop pour garantir la sécurité. Pourtant, il faut réduire l’application des sels de déglaçage car ils perturbent notre environnement et sont difficiles à enlever», souligne ce spécialiste de télédétection et d’hydrologie qui encadre les travaux de recherche de Mme Ratté-Fortin.

La géolocalisation des camions optimisera par exemple les trajets tout en prenant en compte les zones identifiées comme vulnérables —milieux sensibles et eaux souterraines. Un épandage de précision sera également susceptible d'entraîner des gains économiques. «La capacité d’auto-apprentissage de l’IA automatisera la gestion de l’épandage de manière fine en fonction des variations locales (température de surface, niveau de service du tronçon, etc.)», explique encore Mme Ratté-Fortin.

Cet outil a récemment remporté un prix au concours d’Aqua Hacking 2019, qui devrait permettre à l’équipe de Clean Nature de réaliser un réel projet pilote dès cet hiver.

La dose qui fait le poison

Le code de pratique canadien pour la gestion environnementale des sels de voirie recommande que les organismes concernés élaborent des plans pour améliorer leurs pratiques d’entreposage des sels, d’épandage sur les routes et d’élimination de la neige. Pourtant, plus de 15 ans après la mise en œuvre de ce code, la gestion des sels laisse encore à désirer.

Une trop grande quantité utilisée chaque année s’accumule sur les bas-côtés des autoroutes. «Cela change la végétation des premiers mètres. Nous pouvons avoir un bon signal lorsqu’il y a recrudescence d’herbe à poux, la seule plante capable de résister à cette agression», relève le chercheur au Centre de transfert technologique en écologie industrielle (CTTÉI) du Cégep de Sorel-Tracy, Marc Olivier.

Son équipe de recherche a mis au point une solution verte, un acétate mixte de calcium et de magnésium biodégradable. D’autres solutions vertes font l’objet d’expérimentations et de projets pilotes. Par exemple, le jus de betteraves, une solution écolo testée depuis peu à Sherbrooke et à Winnipeg. «C’est un résidu peu dispendieux, avec un petit désavantage qu’est sa couleur, mais qui joue son rôle d’adhésif lorsqu’il ne fait pas trop froid», soutient le chimiste spécialisé en environnement.

La solution serait de varier les solvants, de les utiliser avec parcimonie aux endroits et aux moments nécessaires, pour limiter les dommages à la nature. Ainsi qu’aux infrastructures, comme le tablier de béton du Pont Champlain attaqué par les sels. Ce que prône la jeune équipe de Clean Nature : utiliser l’IA pour épandre juste ce qu’il faut, là où il le faut.

Science

20 ans plus tard : le riz doré sur le point d’être approuvé ?

Après 20 ans de controverses, le riz doré est peut-être sur le point d’être approuvé dans le premier des pays à en avoir le plus besoin: le Bangladesh, après un processus d’examen de deux ans, s’apprêterait à donner le feu vert pour des cultures de ce riz sur son territoire.

Ce qu’on appelle le riz doré est un riz génétiquement modifié pour lutter contre les carences en vitamine A. Ces carences peuvent conduire à la cécité et affaiblissent le système immunitaire. Selon une étude parue il y a déjà 10 ans dans la revue médicale The Lancet, elles seraient responsables d’un demi-million de morts par année, en grande majorité des enfants, dans les pays en voie de développement. En théorie, les campagnes en cours depuis les années 1980 pour fournir aux enfants de ces pays des suppléments de vitamine A pourraient combattre le problème, mais ces campagnes n’atteignent toujours pas le tiers des enfants les plus à risque, selon l’UNICEF.

Dans les pays occidentaux, la vitamine A s’obtient par une alimentation normale: on l’identifie souvent aux carottes, qui doivent en partie leur coloration à cette vitamine —tout comme la teinte jaunâtre du riz doré doit la sienne aux surplus de vitamine A que la plante produit.  

Lancée en 1999 après 15 années de recherches visant à mettre au point un aliment capable de produire davantage de cette vitamine A, le riz doré a surtout été marqué, depuis, par une histoire tumultueuse. Il est arrivé à une époque où certains pays européens se mobilisaient déjà contre les organismes génétiquement modifiés (OGM) et il n’a jamais cessé d’être ciblé par les opposants comme un exemple de «cheval de Troie» par lequel l’industrie des OGM s’infiltrerait dans les pays qui choisiraient d’ouvrir la porte à ce riz. Une étude menée auprès d’enfants chinois en 2012, qui concluait à son efficacité, a ainsi été attaquée, pas tant sur ses résultats que sur le fait que les parents n’avaient pas été avisés adéquatement qu’il s’agissait. d’un aliment génétiquement modifié.

Depuis 1999, ce riz a aussi eu le temps de s’améliorer, passant six ans plus tard à une seconde version produisant davantage de vitamine A. Selon l’étude de 2012, il pourrait fournir 60% de la quantité de vitamine dont un enfant a besoin. Et selon des études menées aux Philippines, à Taïwan et au Bangladesh en 2015, celui qui est produit dans les champs produirait quatre à cinq fois plus de vitamine A que celui produit en serre.

Depuis deux ans, il a été approuvé pour consommation aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande. Si le Bangladesh l’approuve à son tour, ce sera toutefois le premier des pays qui en ont véritablement besoin, compte tenu des carences de sa population en vitamine A.

Pour les défenseurs de longue date du riz doré, les deux décennies d’opposition ont causé des millions de décès qui auraient pu être évités. Pour les opposants, dont Greenpeace a longtemps été un chef de file, le riz doré ne peut pas fonctionner et détourne des ressources financières qui auraient dû être employées à lutter contre la malnutrition et la pauvreté.

Science

Comment une alimentation trop riche transforme notre cerveau

LA SCIENCE DANS SES MOTS / Nous adorons les gâteries sucrées. Mais trop de sucre dans notre alimentation peut causer un gain de poids et l’obésité, le diabète de type 2 ainsi que la carie dentaire. Nous savons qu’il vaut mieux éviter les bonbons, la crème glacée, les biscuits, les gâteaux et les boissons gazeuses, mais il est parfois très difficile d’y résister.

C’est comme si notre cerveau était programmé pour avoir envie de ces aliments.

Mes recherches en neurosciences portent sur la façon dont l’alimentation moderne «obésogène» – qui entraîne l’obésité – modifie le cerveau. Je veux comprendre comment ce que nous mangeons change notre comportement et si les transformations cérébrales peuvent être atténuées par d’autres aspects du mode de vie.

Le corps fonctionne au sucre — au glucose pour être précis. Ce terme vient du grec glukos, qui signifie doux. Le glucose alimente les cellules qui nous composent, y compris celles du cerveau (les neurones).

Sucre et poussées de dopamine

Nos lointains ancêtres étaient des charognards. Comme les aliments sucrés constituent une excellente source d’énergie, l’évolution a fait en sorte que nous les trouvons particulièrement bons. Les aliments au goût désagréable, amer ou aigre peuvent être toxiques, avariés ou pas assez mûrs, et donc entraîner des maladies.

C’est ainsi que pour maximiser nos chances de survie en tant qu’espèce, nous avons un système cérébral inné qui nous porte à aimer les aliments sucrés qui nous donnent de l’énergie.

Lorsqu’on mange des aliments sucrés, le système de récompense du cerveau – appelé système dopaminergique mésolimbique – est activé. La dopamine est une substance chimique libérée par les neurones qui signale qu’un événement est positif. Quand le système de récompenses se déclenche, il renforce des comportements qu’on devient ensuite plus susceptibles de répéter.

Les poussées de dopamine provoquées par la consommation de sucre favorisent un apprentissage rapide, ce qui nous porte à préférer ces aliments.

Aujourd’hui, notre environnement regorge d’aliments sucrés et riches en énergie. Il n’est plus nécessaire de partir à leur recherche, car on en trouve partout. Malheureusement, notre cerveau est toujours semblable à celui de nos ancêtres sur le plan fonctionnel, et il aime vraiment le sucre. Mais que se passe-t-il dans le cerveau lorsqu’on en mange trop ?

Le cerveau remodèle continuellement ses connexions par un processus appelé neuroplasticité. Cette reconfiguration peut se produire dans le système de récompense. L’activation répétée de la voie de la récompense par des drogues ou une grande quantité d’aliments sucrés amène le cerveau à s’adapter à une stimulation fréquente, ce qui conduit à une forme de tolérance.

Pour ce qui est des aliments sucrés, cela signifie qu’on doit en manger plus pour obtenir le même sentiment de satisfaction – une caractéristique typique de la dépendance.

Science

La NASA a annoncé une collision cosmique pour le 20 décembre? Faux

DÉTECTEUR DE RUMEURS / La NASA aurait repéré des «roches spatiales gigantesques» dont l’une va percuter la Terre cinq jours avant Noël. La manchette a de quoi faire peur, et la NASA a vraiment annoncé quelque chose… mais pas tout à fait ça, a découvert le Détecteur de rumeurs.

Si de telles annonces de fin du monde réapparaissent régulièrement depuis des décennies, celle-ci s’appuie, aussi étonnant que cela puisse paraître, sur quelque chose de solide : il existe bel et bien un astéroïde nommé 216258 2006 WH1 et la NASA en a bel et bien parlé. Mais pas du tout dans les mêmes termes que le quotidien britannique Daily Express, dont l’article catastrophiste publié en octobre a été traduit ensuite en français la semaine dernière sur le site Nouvel Ordre mondial, et repris dans plusieurs messages inquiets sur les médias sociaux.

En réalité, ce qu’a dit la NASA est que 216258 2006 WH1 passera «à proximité» de la Terre cinq jours avant Noël. Et «à proximité» est un terme relatif en astronomie : on parle ici de 6 millions de kilomètres, ou plus de 15 fois la distance Terre-Lune.

L’information provient d’une division de la NASA appelée le Center for Near Earth Object Studies (CNEOS), dont la mission est d’étudier tous ces objets célestes dont l’orbite excentrique les amène à croiser de temps en temps celle de la Terre — appelés en français géocroiseurs ou en anglais Near Earth Objects. Le CNEOS, en date du 21 novembre, énumérait 15 autres de ces objets devant passer dans les deux prochains mois à des distances variant entre une fois et demi et 19 fois la distance Terre-Lune. Les plus petits font 10 à 20 mètres de diamètre: l’équivalent de la météorite dont l’onde de choc, en 2013, a fait voler en éclat des milliers de fenêtres dans la ville de Tcheliabinsk, en Russie. Les plus gros, comme celui dont il est question ici, font entre 250 et 600 mètres: les experts évaluent qu’une collision avec un objet de cette taille se produit quelques fois par million d’années. Quant à l’astéroïde qui a mis fin à la carrière des dinosaures il y a 65 millions d’années, il était, lui, au moins 30 fois plus gros que ces derniers.

Il faut aussi savoir que ce 216258 2006 WH1 est connu depuis 2006 (comme son nom l’indique). On ne vient donc pas de «découvrir» qu’il allait passer près de nous: son orbite a été suivie suffisamment longtemps pour que les astronomes puissent prédire avec précision cette orbite pour les 200 prochaines années. La NASA prévient par ailleurs qu’il reste certainement un grand nombre d’autres objets géocroiseurs à découvrir. Mais plus ils sont gros, et plus les chances sont élevées qu’ils soient détectés des années avant une approche dangereuse.

Science

La baie d’Hudson, cimetière des marées

«SCIENCE AU QUOTIDIEN / «L'année dernière, des collègues qui étaient au Nunavik, sur le bord de la baie d’Hudson, m’ont demandé de leur fournir l’heure de la prochaine marée haute pour planifier leurs travaux. Mais en arrivant sur le site de Pêches et Océans Canada, j’ai été un peu mystifiée. J’ai l’habitude de voir quatre marées par jour, à intervalle assez régulier. Or, dans le graphique des marées, l’oscillation n'était pas régulière et même qu’à certains moments, il semble n’y avoir que deux marées par jour. Le même phénomène semble prévaloir pour tout l’est de la baie d’Hudson. Avez-vous une explication ?», demande Christine Lambert, qui travaille en aménagement de la faune à Rimouski.

Quiconque observera les graphiques ci-contre, qui présentent les marées sur 7 jours à Québec et à Akulivik, se rendra tout de suite compte que la marée n’y fonctionnent pas du tout de la même manière. Dans la Vieille Capitale, le niveau de l’eau monte et descend avec la régularité d’une horloge, littéralement. Mais sur la côte est de la baie d’Hudson, c’est une tout autre histoire : certains jours, la marée semble «coller» à la hausse pour ensuite redescendre brièvement, d’autres jours elle semble carrément chaotique, et d’autres jours encore elle prend un rythme plus normal.

Vraiment, si le village d’Akulivik était une personne et que son graphique des marées étaient un électrocardiogramme, son médecin l’enverrait directement à l’urgence…

Cela peut paraître très étonnant puisque l’on entend souvent que les marées sont dictées par la gravitation de la lune et du soleil. Et c’est tout à fait vrai, dit Denis Lefaivre, chercheur en prévisions océaniques à Pêches et Océans Canada : «L’influence de la lune est à peu près deux fois plus forte que celle du Soleil, c’est pour ça qu’on a deux cycles de marée par jour.» Un cycle quand la lune est de «notre» côté de la Terre et qu’elle attire l’eau, et un autre quand elle est du côté opposé — ce qui, contrairement à ce qu’on penserait intuitivement, donne alors une marée haute parce que la lune attire la Terre et que les océans de l’autre côté de la planète restent à la traîne, un peu comme l’eau qui s’accumule à l’arrière d’un contenant quand on le tire vers soi.

Bref, la gravitation de la lune et du soleil sont le «moteur» qui fait monter et descendre le niveau des océans. À cet égard, d’ailleurs, la marée et les voitures sont assez comparables. Le moteur a, en effet, une grande influence sur l’expérience de conduite, mais celle-ci dépend également d’une foule d’autres facteurs très locaux, comme l’endroit où on va, la météo à cet instant précis, le fait de rouler sur de l’asphalte ou de la gravelle, etc. Et il en va de même avec les marées, qui ne se manifestent pas partout de la même façon parce qu’au-delà de leur «moteur», plusieurs facteurs locaux vont agir dessus, comme la forme des côtes, la profondeur de l’eau, la bathymétrie (soit le «relief» des fonds marins), etc.

Or dans le cas de la baie d’Hudson et en particulier de la côte du Nunavik, ces facteurs-là sont particulièrement nombreux, influents et complexes. Les marées, comme on l’a déjà vu dans cette rubrique, sont des ondes qu’on peut se représenter comme des sortes de «vagues» pas très hautes (quelques dizaines de centimètres de haut) mais qui s’étendent sur des milliers de kilomètres, et qui se déplacent d’est en ouest. Comme toutes les vagues, l’onde de marée peut être bloquée, déviée ou déformée par les obstacles qu’elle rencontre. Et quand elle arrive dans l’Arctique canadien, la marée se heurte justement à deux obstacles importants : la côte du Labrador et l’île de Baffin.

Le seul endroit où cette «vague» peut passer est le détroit d’Hudson, à la pointe nord du Québec — et encore ce passage de 70 km à 100 km n’est pas très large à l’échelle d’une marée. Cela a pour effet de «concentrer» l’onde, ce qui amplifie beaucoup les marées dans ce secteur (de même que dans la baie d’Ungava). Par exemple dans le village inuit de Kangiqsujuaq, du côté québécois du détroit d’Hudson, la différence entre la marée basse et la marée haute est considérable : pas moins de 6 à 7 mètres ces jours-ci [http://bit.ly/336qogc]. Cela provoque aussi des «courants de marée» particulièrement forts dans le détroit, pouvant atteindre de 10 à 15 km/h. L’explorateur anglais John Davis, qui est passé par là en 1587, a d’ailleurs noté dans son journal de bord qu’«à notre grande admiration, nous avons vu l’océan tomber dans [la baie d’Hudson] comme un grand déversoir, rugissant et créant des tourbillons comme le courant d’une rivière qui force son chemin entre les piliers d’un pont» [http://bit.ly/2qBK2n6].

Ce qui se passe ensuite est encore plus singulier. La marée ne monte pas partout dans la baie en même temps, mais monte d’abord dans le nord-ouest, sur les côtes du Nunavut, pour ensuite descendre vers le sud (la côte manitobaine) et éventuellement revenir vers l’est et, finalement, le nord. Bref, l’onde ne peut pas poursuivre sa route vers l’est et est redirigée par les berges.

Chemin faisant, note M. Lefaivre, elle perd beaucoup de son énergie par friction. «Comparé au Golfe du Saint-Laurent, dit-il, la baie d’Hudson est trois fois plus grande mais elle est moins profonde.» L’onde s’amenuise donc au fond et sur les berges, si bien qu’il n’en reste plus grand-chose une fois rendu à Akulivik — où son amplitude varie d’ailleurs de seulement 10 à 30 cm, selon le moment du mois. «Et je peux même vous dire qu’en hiver, quand la glace fige et que le couvert est complet, il n’y a presque plus de marée là parce que la friction se fait alors non seulement par le fond, mais par la surface aussi», ajoute M. Lefaivre.

Ce qui se passe concrètement dans chacun des villages du Nunavik hudsonien peut varier selon les conditions locales — il y a une grande île en face d’Akulivik, Puvirnituq est au fond d’une baie, Inukjuak est au fond d’une baie plus petite et «protégée» par un chapelet d’îles, etc. —, ce qui rend la chose difficile à expliquer concrètement ici. Mais comme l’explique M. Lefaivre, nous sommes devant un système où «les résonances [ndlr : des facteurs qui, selon le moment du mois, vont se conjuguent ou s’annuler] sont fortes» et complexes, ce qui donne des marées en apparence capricieuse, ou du moins très changeantes.

+

Science

Six chercheurs de l’UL parmi les plus cités au monde

Six chercheurs de l’Université Laval font partie du dernier palmarès des savants les plus cités au monde, compilé par la firme américaine Clarivate.

Il s’agit de France Légaré (santé des populations et prise de décision en santé), Vincenzo Di Marzo (spécialiste du système endocannabinoïde, qui régule le stress, la faim et l’immunité), Jean-Pierre Després (obésité, diabète), Philippe Pibarot et Josep Rodes-Cabau (tous deux en traitement des maladies cardiaques) et de Sylvain Moineau, dont les travaux ont ouvert la porte au système CRISPR, qui est en train de révolutionner l’édition génétique.

Clarivate établit cette liste en sélectionnant le 1 % des chercheurs les plus cités à l’échelle mondiale dans leur domaine au cours de la dernière année. Au Québec, les universités McGill (20 mentions) et de Montréal (6 mentions) ont elles aussi des chercheurs dans cette prestigieuse liste.

À l’échelle de la planète, ce palmarès comprend un peu plus de 2700 personnes, dont une grande partie vivent aux États-Unis (44 %). L’université Harvard (203 mentions) est l’institution qui emploie le plus de ces «chercheurs influents».

La Chine vient au second rang avec 636 chercheurs figurant dans le 1 % les plus cités par leurs pairs.

Science

Les fameuses «preuves» d'efficacité de l'homéopathie...

BLOGUE / Les défenseurs de l'homéopathie chantent toujours le même refrain, et la nouvelle «Coalition pour l'homéopathie au Québec», parrainée et lancée hier par l'ex-ministre Thomas Mulcair, n'y fait pas exception. On commence par concéder que le fonctionnement de l'homéopathie est «mal compris», mais on enchaîne tout de suite en assurant que son efficacité, elle, est scientifiquement prouvée. Or le problème est que tout, là-dedans, est faux.

C'est La Presse qui a sorti cette histoire de Coalition ce matin — et après toutes les fois où j'ai vu des journalistes répéter sans critique le discours des homéopathes sous prétexte qu'ils ont «droit de parole eux aussi», je crois qu'il faut saluer le travail de ma collègue, qui est allée chercher la version de sources crédibles et solides pour contredire ce non-sens.

Je suis toujours un peu étonné d'entendre les homéopathes et leurs partisans dire que le fonctionnement de leurs produits est encore nébuleux. Ce soi-disant «mécanisme» est pourtant clairement énoncé depuis les débuts de l'homéopathie au XVIIIe siècle : toute maladie peut être guérie par une toxine produisant les mêmes symptômes, si on la dilue à l'extrême (voire jusqu'à absence complète). Tout ce beau monde «découvre» de nouveaux «traitements» homéopathiques chaque année en mettant cela en pratique, alors le «mécanisme» semble assez bien maîtrisé en ce qui les concerne, merci.

Mais le problème n'est justement pas que le principe de fonctionnement est incompris, c'est qu'il n'a ni queue ni tête, qu'il n'a aucun fondement scientifique le moindrement plausible, qu'il ne tient tout simplement pas debout. Et conséquemment, quand on examine les «preuves» d'efficacité de l'homéopathie comme du monde, on se rend vite compte qu'elles n'existent pas.

Pour citer l'excellent blogue Science-Based Medicine, il y a un pattern qui revient très souvent dans les études sur les médecines dites alternatives en général, et il est systématique dans le cas particulier de l'homéopathie. Les premières «études» au sujet d'un traitement suggèrent qu'il est efficace, mais elles sont habituellement de très faible qualité — il s'agit souvent de quelques cas rapportés, de projets-pilote qui vise à «tester» le protocole de recherche et non à produire des résultats scientifiques, etc. Viennent ensuite des travaux plus solides (encore que de qualité variable), et l'efficacité du traitement apparaît alors pas mal plus incertaine. Et en bout de ligne, quand la recherche atteint éventuellement des niveaux de qualité vraiment élevés (les essais cliniques les mieux faits et les méta-analyses), alors l'effet du soi-disant traitement disparaît complètement.

La plus belle illustration de cette règle est sans doute cette méta-analyse (étude qui consiste à agréger les données de plusieurs études sur une même question) parue en 2017 dans Systematic Reviews. L'exercice consistait à recenser tous les essais cliniques sur l'homéopathie répondant à certains critères minimaux de qualité, peu importe ce que le traitement était supposé guérir (il y a des outils, en statistique, qui permettent de comparer la taille des effets sans égard à la maladie traitée). Les auteurs ont trouvé 75 de ces essais cliniques dont l'ensemble suggérait que l'homéopathie avait bel et bien une efficacité au-delà du placebo, mais quand ils tenaient compte de la qualité variable de ces études, alors l'effet s'estompait. Pas moins de 49 de ces travaux avaient des caractéristiques qui laissaient soupçonner un «fort risque de biais» en faveur de l'homéopathie, et 23 venaient avec un «risque de biais incertain». Seulement trois de ces essais cliniques ont produit des «données fiables», lit-on dans l'article, et ceux-là n'ont trouvé aucun signe d'efficacité.

Ce n'est pas compliqué, c'est toujours le même principe pour tous les maux sur lesquels on a testé l'homéopathie et ça fait des décennies que ça dure. Tenez, voici ce qu'a par exemple trouvé une revue de la littérature scientifique au sujet de l'effet des granules de sucre sur le trouble du déficit de l'attention :

Sciences

L'astronaute David Saint-Jacques rencontre François Legault

Le premier ministre François Legault avait une grande question à poser à l’astronaute David Saint-Jacques mardi : «Comment on fait pour convaincre plus de jeunes de choisir les sciences pures?»

Le médecin de famille, ingénieur et astrophysicien a eu cette réponse: «Parce que c’est le fun! Il n’y a rien de plus le fun que de comprendre le monde autour de nous.»

Il était reçu avec son épouse par le premier ministre à son bureau, après un hommage officiel rendu par l’Assemblée nationale. M. Legault en a donc profité pour le questionner sur une de ses grandes préoccupations, c’est-à-dire comment inciter les jeunes à se lancer en sciences.

«M. Saint-Jacques peut inspirer beaucoup de jeunes, a-t-il dit au Salon bleu. Au Québec, on n’a pas assez de jeunes qui choisissent les sciences pures. On réussit parfois à aller en sciences humaines avec mathématiques, mais ingénieurs, médecins. (...) On a besoin de plus de jeunes qui choisissent les sciences. C’est là que ça se passe, l’innovation.»

Les réponses de David Saint-Jacques étaient de la musique aux oreilles du premier ministre. «Tout devient un peu notre ami quand on comprend comment ça marche, a-t-il justifié. L’exploration scientifique, la découverte, c’est une des plus belles choses pour un être humain. C’est un trésor. Ça rend tout moins apeurant, c’est comme ça qu’on a progressé. On est sorti des cavernes parce qu’on s’est creusé la tête.»

En mission dans la Station spatiale, le Québécois a passé 204 jours dans l’espace, du 2 décembre 2018 au 24 juin 2019, la plus longue mission à ce jour pour un astronaute canadien. Et il est le seul astronaute québécois à avoir effectué une sortie spatiale, a tenu à souligner M. Legault au cours de l’hommage en Chambre, après la période de questions.

Le premier ministre lui a remis une médaille «pour sa contribution exceptionnelle à la recherche scientifique, exploration spatiale et au rayonnement international du Québec». Pour sa part, l’astronaute a donné à M. Legault, à l’attention de ses fils, des badges officiels de son expédition spatiale, soit la 58/59.

La Capitale

Conversation avec notre chroniqueur Jean-François Cliche

Notre série Conversation avec nos chroniqueurs se poursuit le 2 décembre toujours au théâtre Le Diamant, cette fois avec notre chroniqueur scientifique Jean-François Cliche.

Pour ce rendez-vous gratuit offert en priorité à nos abonnés, vous pourrez mieux connaître ce passionné qui couvre la science depuis 2007.

Chaque semaine dans les pages du Soleil, Jean-François Cliche répond à des questions des lecteurs dans sa chronique Science au quotidien.

Rigoureux, désireux de faire triompher les faits en ces temps polarisés ou tout et n’importe quoi se dit sur la science et l’environnement, notre chroniqueur s’efforce de fournir une information fiable et, souvent, de rectifier les faits.

Sa rubrique Vérification faite dans laquelle il éclaire des affirmations de tous les horizons obtient aussi un vif succès dans nos pages.

Cette rencontre sera composée d’un entretien suivi d’une période de questions du public qui sera l’occasion de mieux comprendre la réalité du métier de chroniqueur.

La soirée est offerte en priorité aux abonnés, membres et ambassadeurs du Soleil. Un moment privilégié pour partager avec vous, précieux lecteurs. Vous pourrez de plus avoir la chance de visiter Le Diamant. Les précédents entretiens avec Richard Therrien en septembre, François Bourque en octobre et Mylène Moisan la semaine dernière ont permis des échanges exceptionnels avec nos fidèles lecteurs. 

Inscrivez-vous dès maintenant au jeanfrancoiscliche.lesoleil.com. Le nombre de places est limité à 100!

Science

La résistance aux antibiotiques pourrait mettre en péril notre mode de vie

LA SCIENCE DANS SES MOTS / Les défenses de l’humanité contre les infections s’affaiblissent de jour en jour, tandis que les microbes qui en sont responsables deviennent de plus en plus forts.

Une infection sur quatre est désormais résistante aux antibiotiques et à d’autres formes connues de traitement. L’an dernier, 5400 Canadiens sont morts de maladies qui, jusqu’à récemment, étaient curables. C’est ce qu’indique un rapport exhaustif évalué par des pairs et présenté cette semaine par le Conseil des académies canadiennes.

Cela constitue environ le double du nombre conjugué d’homicides et de décès par accidents de la route chaque année au Canada.

Ces maladies incluent tant la pneumonie que des infections sanguines, cutanées ou des voies urinaires. Et leur nombre augmente partout puisque le trafic international permet le transport des microbes pathogènes aux quatre coins du monde.

Le rapport, Quand les antibiotiques échouent, a été préparé pour le gouvernement fédéral par un comité d’experts présidé par Brett Finlay, de l’Université de la Colombie-Britannique, et dont j’étais membre. Il décrit en détail les impacts de la résistance aux antimicrobiens (RAM) sur notre économie, notre qualité de vie et notre santé.

L’an dernier, la RAM a réduit le PIB du Canada de 2 milliards de dollars ; nous nous attendons à ce que ce montant se situe entre 13 et 21 milliards de dollars d’ici 2050.

J’espère que ce rapport permettra de faire prendre conscience aux décideurs et au public de l’existence d’une crise de la résistance aux antimicrobiens.

Les miracles des antibiotiques

La bonne nouvelle dans tout cela, c’est que le Canada est dans une excellente position pour prémunir le monde de la catastrophe. Nous pouvons le faire si nous concentrons immédiatement nos formidables ressources à la résolution de ce problème.

Le Symposium de la fondation Gairdner de 2019, un rassemblement scientifique international autour de cette question, a lieu ces jours-ci à l’Université McMaster.

Science

10 ans plus tard: le climategate a-t-il eu un impact?

Le climategate, ce faux scandale survenu il y a 10 ans cette semaine, n’a certainement pas affaibli la science du climat. Mais il a peut-être suffisamment détourné l’attention à l’époque pour avoir un impact politique.

Le 19 novembre 2009, un peu plus d’un millier de courriels étalés sur 13 ans, provenant d’échanges entre des climatologues de deux importants centres de recherche, un britannique et un américain, étaient dévoilés par un pirate informatique. Les mouvements climatosceptiques ont immédiatement prétendu que ces courriels révélaient l’existence d’un «complot» pour «dissimuler la vérité», une affirmation qu’ils appuyaient sur trois extraits sortis de leur contexte —et dont la véritable signification s’avèrerait rapidement n’avoir rien à voir avec un complot. Dans les deux années qui suivirent, pas moins de neuf enquêtes sur deux continents furent lancées, par les universités des chercheurs concernés, par des organismes subventionnaires et, dans deux cas, par des élus, ceux d’un comité du parlement britannique et ceux d’un comité du Congrès américain. Dans les neuf cas, les enquêtes conclurent à un « faux scandale » et à l’absence de faits pour incriminer qui que ce soit de quelque malversation que ce soit.

Mais sur le coup, ces courriels eurent un impact sur l’opinion publique, sur la couverture des négociations du climat dans certains médias — en particulier les médias campés les plus à droite — et sur les décideurs politiques. On était alors à moins d’un mois de la conférence annuelle des Nations Unies sur le climat qui, tenue à Copenhague, était censé accoucher — ou non — d’une entente pour un traité devant succéder au Protocole de Kyoto. La conférence est, depuis, souvent pointée du doigt comme ayant été un échec, et l’influence qu’a eu ce faux scandale continue d’être débattue 10 ans plus tard: pour les uns, la conférence était de toutes façons vouée à l’échec, les vents (qui semblaient favorables à une entente sur le climat au milieu des années 2000) ayant tourné dans la mauvaise direction.

Pour les autres, le climategate a donné juste assez de carburant aux opposants pour se faire entendre sur la place publique pendant ces quelques semaines cruciales. Selon le Britannique Bob Ward, directeur des politiques à l’Institut Grantham de recherche sur le climat et l’environnement, interrogé cette semaine par The Guardian : «Les politiciens de droite, alliés aux compagnies du secteur des carburants fossiles, ont utilisé leur influence pour répandre de fausses informations sur ces courriels et pour se battre contre des politiques de réduction des fossiles… Je suis sûr qu’ils feraient encore la même chose aujourd’hui.» 

Ce fut par contre, pour plusieurs, une leçon de vulgarisation 101: les climatologues, leur ont reproché des professionnels de la communication dans les mois qui ont suivi, ont été trop nombreux à regarder de haut cette histoire, à nier qu’elle puisse avoir un impact, à rejeter l’idée qu’ils puissent manquer de transparence dans leurs communications auprès du public, et donc à ne pas voir la nécessité de répondre.

Et le fait est que, 10 ans plus tard, ni les neuf enquêtes ni le déboulonnage des citations sorties de leur contexte n’empêchent des climatosceptiques de continuer de proclamer que le Britannique Phil Jones ou l’Américain Michael Mann étaient des fraudeurs. En l’absence de preuve, ils ne peuvent en parler qu’entre eux, tandis que les preuves d’un climat en train de changer continuent de s’accumuler, mais ils contribuent peut-être, à leur façon, à détourner une partie de l’attention.

Science

L’eau à haute teneur en minéraux: dangereuse pour la santé?

DÉTECTEUR DE RUMEURS / Des millions de gens boivent de l’eau à haute teneur en minéraux, aussi appelée «eau dure». Est-ce dangereux pour leur santé? L’Organisation pour la science et la société et le Détecteur de rumeurs se sont penchés sur la question.

Qu’est-ce que l’eau dure?

L'eau dure est une eau dans laquelle est dissoute une forte concentration de minéraux, comme les carbonates, chlorures et sulfates de calcium et de magnésium. La «dureté» de l'eau dépend de sa provenance. Une eau souterraine entrée en contact avec des roches poreuses qui contiennent des dépôts de minéraux, comme du calcaire ou de la dolomite, sera plus « dure », alors qu'une eau provenant d'un glacier ou qui coule à travers un amas de roches dites magmatiques sera beaucoup plus «douce».

Cette dureté est mesurée en milligrammes de carbonate de calcium (CaCO3) par litre d'eau ou, plus simplement, en parties par million (ppm). Les chiffres demeurent les mêmes puisque 1 mg/L = 1 ppm. Règle générale, une eau qui contient moins de 60 ppm est considérée comme douce. Une eau se situant entre 60 et 120 ppm est modérément dure et une eau supérieure à 120 ppm est qualifiée de dure. À titre indicatif, l'eau de Montréal est typiquement aux alentours de 116 ppm, c'est-à-dire modérément dure, alors que l'eau de mer se tient autour de 6630 ppm en raison des multiples sels qui y sont dissous.

On peut parfois reconnaître une eau dure à son odeur ou à sa couleur. Elle semblera trouble si elle contient un excès de sels qui ne peuvent plus s'y dissoudre. De plus, si la concentration de calcium dépasse les 100 ppm, l'eau va probablement « goûter drôle ». Bien que le consommateur préfère souvent une eau claire et sans goût, ces caractéristiques de l'eau dure ne présentent pas de risque pour la santé humaine.

Des impacts sur la santé ?

Des études suggèrent depuis au moins 20 ans qu’une eau riche en minéraux protégerait contre les problèmes cardiovasculaires. Le magnésium et le calcium auraient un effet protecteur contre les cancers de l'estomac, du côlon, du rectum et du pancréas, et le magnésium contribuerait à réduire les risques des cancers de l’œsophage et de l’ovaire. L’eau dure préviendrait l’athérosclérose chez les enfants et les adolescents.

À l’inverse, certaines études ont suggéré qu’une eau dure favoriserait l’eczéma chez les enfants. Toutefois, une étude de l’Université de Nottingham en 2011 menée sur 336 enfants et adolescents de 6 mois à 16 ans souffrant d’eczéma, a remis cette relation en question. Les chercheurs ont installé des unités d'adoucissement de l'eau au domicile de la moitié des participants et ont surveillé l'eczéma des enfants sur une période de trois mois. Le groupe qui a bu de l'eau adoucie a rapporté une amélioration de l'eczéma de 20 %, alors que celui qui buvait de l'eau dure a noté une amélioration de... 22 %. Il est donc peu probable que l'eau dure ait contribué à l'eczéma de ces enfants.

De même, bien que certaines études aient rapporté une corrélation entre la dureté de l'eau et la formation de calculs rénaux, la majorité des études portant sur le sujet ne démontrent aucune association.

Des avantages ?

Un adulte qui boit deux litres d’eau dure par jour ingérera environ 52 mg de magnésium, soit 12 % des 420 mg qu’il devrait consommer quotidiennement selon Santé Canada.

Par ailleurs, les personnes atteintes de diabète de type 2 peuvent bénéficier d’une eau riche en magnésium puisqu’ils souffrent souvent d’un manque de ce minéral qui permet de réguler le taux d’insuline dans l’organisme. La concentration élevée en magnésium de l'eau dure peut aussi être avantageuse contre une constipation chronique, car les sels de magnésium ont un effet laxatif sur le corps.

Il est de toutes façons très difficile à un humain dont les reins sont en santé de souffrir d’un excès de calcium (hypercalcémie), puisque tout excès est rapidement évacué. Des cas d’excès de magnésium sont très rares, et résultent tout au plus en des épisodes courts de diarrhée.

Verdict

«L’eau dure» ne semble avoir aucun impact négatif sur notre corps. Il est même possible qu’elle contribue à l’apport quotidien en calcium et en magnésium dont nous avons besoin.

Science

Non, la pilule contraceptive ne cause pas l’autisme

SCIENCE AU QUOTIDIEN / «J’aimerais savoir si des études sérieuses ont déjà été faites concernant la pilule contraceptive et le grand nombre d’enfants autistes que nous observons depuis plusieurs années. La comparaison avec les décennies antérieures est inquiétante. Alors est-ce que le fait d’avoir déréglé le cycle des femmes depuis les 50 dernières années est en partie responsable de ce phénomène ?», demande Bernard Boucher, de La Tuque.

En 2000-01, l’Institut de santé publique du Québec comptait environ 0,7 autiste pour chaque tranche de 1000 enfants de 1 à 17 ans. En 2014-15, le même INSPQ en comptait près de 5 par 1000. Aux États-Unis, les niveaux sont plus élevés parce que la méthodologie diffère, mais la tendance est la même : l’Oncle Sam est passé de 7 autistes par 1000 enfants en 2000 à presque 17 par 1000 en 2014.

Il est absolument indéniable qu’il y a beaucoup plus de diagnostics d’autisme qu’avant, tout le monde s’entend là-dessus. Mais si l’on me permet un euphémisme de calibre olympique, disons que l’idée de mettre la faute de la pilule contraceptive, elle, ne rallie pas autant de gens…

En fait, il semble n’y avoir eu qu’un seul chercheur qui ait lancé cette hypothèse à deux reprises dans la revue Medical Hypotheses, en 2014 et en 2015, constatent les spécialistes de l’autisme Isabelle Soulières, de l’UQAM, et Baudouin Forgeot d’Arc, de l’UdeM. Il s’agit, précise ce dernier, d’une revue «qui accueille volontiers des idées très spéculatives», et l’auteure en question admet elle-même qu’il n’existe pas d’étude à ce sujet.

Hormis ces deux articles, «je ne crois pas avoir jamais vu d’étude là-dessus ni entendu qui que ce soit parler de ça dans des congrès», ajoute Mme Soulières.

Et ce silence n’est pas très étonnant, quand on y pense. D’abord, au fondement même de ce lien contraception-autisme, il y a quelque chose qui ne fonctionne tout simplement pas : les dates. Les premières observations que des fortes doses de progestérone empêchaient l’ovulation remontent aux années 30 chez des animaux de laboratoire. Le contexte légal de l’époque, qui interdisait la contraception et la recherche à son sujet, a repoussé le premier essai clinique de pilule contraceptive jusqu’en 1954 — et encore, il fut réalisé à Porto Rico. L’usage de «la pilule» commença a se répandre vers 1960, mais d’abord sous couvert de «régulariser» les menstruations car le contrôle des naissances ne fut vraiment légalisé qu’à la fin des années 60 au Canada et aux États-Unis. La démocratisation de la pilule prit véritablement et définitivement son envol à partir des années 70, d’après un texte paru dans Canadian Family Physician en 2012 — et dont la lecture est absolument fascinante, je dois dire.

Si vraiment la contraception orale était une cause un tant soit peu importante d’autisme, alors la hausse des cas devrait remonter aux années 70, ou au plus tard aux années 80. Or comme on l’a vu plus haut, l’explosion des diagnostics a plutôt débuté autour de l’an 2000. Et l’incohérence est d’autant plus forte, ajoute Mme Soulières, que les doses d’hormones étaient beaucoup plus élevées dans le passé qu’elles ne le sont de nos jours. La première pilule contraceptive mise sur le marché, la poétiquement nommée Enovid 10, contenait 9,85 milligrammes (mg) de progestérone synthétique et 150 microgrammes (µg) d’œstrogène, mais il est rapidement apparu que de telles doses produisaient trop d’effets secondaires. Par comparaison, les doses d’aujourd’hui tournent plus autour 0,1 à 3 mg de progestérone et entre 20 et 50 µg d’œstrogène. Alors si la pilule était une cause d’autisme, la tendance à la hausse aurait dû être compensée au moins en bonne partie, sinon carrément inversée, par la réduction du dosage.

Et c’est sans compter le fait que pratiquement toutes les études sur les causes de l’autisme indiquent qu’il s’agit d’un phénomène très principalement génétique. Une revue des études de jumeaux, qui visent à mesurer la part que jouent les gènes et l’environnement, a constaté en 2016 qu’entre 64% et 91% de l’autisme était «hérité» des parents. D’autres études récentes sur la même question ont elles aussi conclu que l’autisme est génétique à environ 80 %. Alors il est impossible que des facteurs environnementaux n’expliquant que 20 % du phénomène multiplient par 7 la fréquence de l’autisme, comme on l’a vu au Québec depuis 2000 — et c’est encore plus invraisemblable si l’on parle d’un seul de ces facteurs environnementaux, car la contraception n'en serait qu'un parmi d'autres.

Alors, si ce n’est pas l’environnement et que les gènes de grandes populations dans plusieurs pays ne peuvent pas changer tous en même temps en seulement quelques années, comment expliquer la hausse fulgurante de l’autisme depuis 20 ans ? La recherche n’a pas trouvé toutes les réponses encore, mais les preuves s’accumulent autour de l’idée qu’il s’agit de simples changements dans les diagnostics et le dépistage. Au fil du temps, la définition de ce qu’est l’autisme a été élargie et inclut désormais beaucoup plus de gens que dans les années 80 et 90. En outre, ajoute Mme Soulières, «il y a 20 ans, les milieux de l’éducation ne savaient pas c’était quoi, l’autisme, et n’alertaient pas la famille, alors que maintenant, les éducatrices, les profs, les psychoéducatrices et même le personnel des CLSC sont beaucoup plus à l’affût. Ces gens-là pensent plus facilement à l’autisme qu’avant quand le parent arrive et dit : mon enfant ne parle pas encore, mon enfant fait des crises, etc.»

D’ailleurs, pas plus tard qu’en août dernier, une équipe internationale dont Mme Soulières faisait partie a publié un article dans le Journal of the American Medical Association – Psychiatry qui a recensé les études sur l’autisme parues entre 1966 et 2019, afin d’examiner plus particulièrement les différences (capacité à reconnaître les émotions, taille du cerveau, etc.) entre ceux que les chercheurs considéraient autistes et ceux qui étaient rangés du côté des «normaux» ou «neurotypiques». Et les résultats ont montré que plus le temps avançait, plus la différence entre «autistes» et «non-autistes» s’amenuisait — ce qui suggère fortement que les diagnostics d’autisme incluent désormais beaucoup plus de gens qu’avant.

Science

La santé des stocks de poissons au Canada continue à se détériorer

SAINT-JEAN, T.-N.-L. - Une vérification annuelle de l’état des pêches canadiennes révèle une diminution du nombre de stocks de poissons en bonne santé depuis deux ans et prévient que si le gouvernement ne fait rien de plus, la situation ne cessera d’empirer.

Le groupe écologiste Oceana Canada publie son troisième rapport annuel sur l’état des lieux, basé sur les données du ministère fédéral des Pêches et des Océans. Le rapport presse Ottawa d’adopter enfin les réglementations fixant des échéanciers et des objectifs pour la reconstitution des stocks en situation «critique». Sur les 33 stocks considérés comme en «zone critique», seuls six bénéficient de plans de reconstitution du gouvernement.

Dans son «Audit des pêches 2019», Oceana Canada conclut que 17 pour cent des stocks de poisson au pays sont dans la «zone critique», contre 13,4 pour cent en 2017.

D’autre part, plus de crustacés se retrouvent dans la zone critique en 2019, «une tendance particulièrement inquiétante, car la valeur de l’industrie canadienne des produits de la mer dépend fortement des crustacés», précise l’organisme. Selon Pêches et Océans Canada, le crabe des neiges, le homard et la crevette représentent à eux seuls 73 pour cent de tous les débarquements, et valent approximativement 3,8 milliards $, souligne le rapport.

Par ailleurs, Oceana Canada signale que l’état sanitaire de 38 pour cent des stocks n’a pas pu être évalué faute de données suffisantes.

Robert Rangeley, directeur scientifique d’Oceana Canada, estime que la série de vérifications a révélé des tendances inquiétantes, notamment un manque d’action décevant du gouvernement face à cette «crise» persistante. «Je pensais que lors de notre troisième audit, nous constaterions davantage de progrès», a-t-il déclaré par téléphone depuis Ottawa. «Il y a beaucoup de gens bons et intelligents chargés de la science et de la gestion de nos océans, mais les progrès sont trop lents. (...) L’urgence ne fait que grandir.»

Morue et crevette nordique

Le rapport fait état de quelques progrès, notamment une augmentation du nombre de publications scientifiques évaluant la santé des stocks de poisson et une plus grande transparence du suivi de la pêche. On souligne également que la Loi sur les pêches, modifiée en juin, constitue une occasion de progresser. Mais les réglementations fédérales, en cours d’élaboration, devraient prévoir par exemple des échéanciers pour les plans de reconstitution des stocks, et des systèmes de surveillance normalisés afin que la nouvelle loi puisse porter ses fruits.

Vingt-quatre des stocks de poisson gravement épuisés du pays se trouvent dans l’est du Canada, y compris la morue et la crevette nordique.

Plusieurs invertébrés sont passés d’un statut en bonne santé à une désignation «prudente», y compris la crevette nordique et la crevette à flanc rayé. Trois autres stocks de crevette du Pacifique et de crabe des neiges du plateau néo-écossais ont été classés dans la «zone critique» cette année, ce qui porte à sept le nombre total de stocks de crustacés dans cette catégorie, contre un seul en 2017.

M. Rangeley estime qu’un engagement réel d’Ottawa est nécessaire pour reconstruire les pêcheries et éviter un nouvel effondrement comme celui de la morue du Nord. Ce stock n’a pas de plan de reconstitution depuis son effondrement en 1992, qui avait jeté au chômage des milliers de travailleurs et dévasté plusieurs communautés sur l’île de Terre-Neuve.

Oceana Canada critique d’ailleurs la décision d’Ottawa d’augmenter le quota de captures de morue du Nord de 30 pour cent ce printemps, ce qui irait à l’encontre de la nouvelle Loi sur les pêches et de la politique du gouvernement visant à maintenir la pêche des stocks épuisés à des niveaux aussi bas que possible, soutient-on.

Science

Le «Pharmachien» Olivier Bernard reçoit un prix décerné par «Nature»

MONTRÉAL - Olivier Bernard, alias «Le Pharmachien», a remporté un prestigieux prix international pour sa défense de la science.

Le blogueur et vulgarisateur québécois a plus précisément reçu le prix John-Maddox à Londres pour son travail visant à déboulonner les mythes entourant l’utilisation de la vitamine C pour traiter le cancer.

En 2018, M. Bernard a appris qu’une pétition demandait au gouvernement du Québec d’approuver l’injection de doses massives de la vitamine C pour aider les patients atteints de cancer.

La pétition demandait au gouvernement de mettre sur pied un «Registre québécois de la vitamine C par perfusion», pour autoriser les médecins à la prescrire ainsi que pour documenter l’innocuité et l’efficacité de la vitamine C à haute dose dans les cas de traitements médicaux complémentaires de cancer.

Le «Pharmachien» a alors vérifié la science derrière ces affirmations; il voyait dans cette pétition une «stratégie de lobbying politique qui contourne le processus scientifique» et qui comporte des risques pour la médecine et la santé publique.

Or, quand il a publié ses découvertes sur son blogue et les a diffusées dans son émission de télévision, lui et sa femme ont été la cible de vives réactions dans les médias sociaux - voire de menaces. Il était venu à la populaire émission «Tout le monde en parle» pour expliquer sa position et annoncé qu’il ne commenterait plus ce dossier controversé. Il avait au passage déploré le silence, ou le manque de solidarité, de la communauté scientifique.

La pétition n’a finalement pas été saisie par la commission de la santé et des services sociaux de l’Assemblée nationale. Le gouvernement du Québec a par ailleurs commencé à chercher des moyens d’aider les scientifiques qui font face à ce genre de réactions virulentes.

Le prix John-Maddox est décerné par la revue «Nature» et l’organisme «Standing Up for Science» (À la défense de la science).

Rejoint à Londres, où il devait recevoir le prix en soirée, Olivier Bernard a expliqué au téléphone que «la communication scientifique en ce moment est importante, parce que les gens n’ont jamais été aussi confus».

«On est bombardés d’informations sur la science, sur la santé, et c’est extrêmement difficile de s’y retrouver, a-t-il soutenu. Le gros défi qui vient avec ça, c’est d’être capables de différencier la bonne et la mauvaise information en ligne, dans les médias. etc.»

«Le travail des communicateurs, des vulgarisateurs scientifiques, c’est ça»: une sensibilisation à l’esprit critique, a-t-il ajouté.

Science

Mercure passe devant le Soleil

Les amateurs d’astronomie du Québec ont pu assister lundi à un phénomène rare, le passage de la planète Mercure devant le Soleil. La prochaine observation au Québec aura lieu en 2049.

Espace pour la vie avait convié les intéressés au Planétarium Rio Tinto Alcan, à Montréal, de 7h36 à 13h04, alors que Mercure est passée exactement entre le Soleil et la Terre. Le phénomène a pu être observé en webdiffusion avec les animateurs du Planétarium. 

La planète Mercure est la première dans l’ordre de distance à partir du Soleil. Elle circule sur une orbite plus petite que celle de la Terre. Alors que la Terre boucle une révolution autour du Soleil en un an, Mercure ne met que 88 jours à compléter la sienne. Au cours d’une période d’un siècle, on compte seulement 13 ou 14 passages de Mercure entre le Soleil et la Terre.  

Science

Comment remplir ses épaulières

SCIENCE AU QUOTIDIEN / «Depuis plusieurs années, on entend parler de jeunes hockeyeurs professionnels de 18, 19 ou 20 ans qui augmentent leurs poids en l’espace d’un été, en prenant uniquement des produits légaux. J’ai toujours été surpris de les entendre affirmer qu’ils doivent prendre du poids pour ainsi être prêt au camp d’entrainement de septembre, puis annoncer fièrement qu’ils ont augmenté leur masse musculaire d’une dizaine de livres pendant l’été. L’entrainement physique et les suppléments alimentaires légaux suffisent-ils vraiment pour obtenir de tels résultats?», demande Bernard Plourde, de Québec.

De manière générale, non, prendre 5 à 8 kilogrammes (10-15 livres) en l’espèce de deux ou trois mois n’est pas possible, répondent Jonathan Tremblay, spécialiste de l’encadrement des athlètes de haut niveau de l’Université de Montréal, et Anthony Karelis, qui mène des recherches sur l’exercice physique et le métabolisme à l’UQAM. Tous deux s’entendent pour dire qu’un athlète sérieux, qui s’entraîne plusieurs fois par semaine et se nourrit adéquatement (lire : bien et beaucoup), peut prendre autour de 0,5 à 1 kilo par mois (1 à 2 livres), sans plus.

«Si on parle de 10 ou 15 livres en deux mois, alors là je soupçonnerais qu’il peut y avoir eu des substances interdites qui ont été prises», dit M. Tremblay. Mais attention avant de sauter aux conclusions, avertit-il, car la période sur laquelle la prise de poids d’un athlète professionnel s’étale n’est pas toujours bien connue du public, ce qui peut faire partir le «moulin à rumeurs» inutilement. Le cas du joueur de centre des Canadiens de Montréal Jesperi Kotkaniemi a été évoqué récemment parce que le jeune homme, âgé de 19 ans, s’est présenté cet automne au camp d’entraînement avec une dizaine de livres de plus que l’année précédente. De là, plusieurs internautes et commentateurs ont conclu qu’il avait dû se muscler la charpente au cours de l’été, alors que c’est plutôt sur un an qu’il a pris ce poids — et M. Tremblay en sait quelque chose puisqu’il travaille avec l’équipe.

La règle générale en cette matière, dit pour sa part M. Karelis, c’est que «c’est très difficile d’ajouter de la masse musculaire. Si on parle de quelqu’un qui s’entraîne quatre ou cinq fois par semaine, alors oui, ça devient réaliste de penser gagner une ou deux livres par mois peut être réaliste».

Et encore, ajoute son collègue de l’UdeM, «il faut que la nutrition soit adéquate, sinon l’athlète ne prend pas de poids. (…) C’est important que l’alimentation soit riche en protéines, que les repas soient pris aux bons moment, généralement autour des entraînements avec une portion avant le sommeil (souvent double), etc.» Bref, pour atteindre le rythme de 1 kg par mois, non seulement il faut s’entraîner dur, mais l’alimentation devient pratiquement un travail à elle seule. «Il faut le planifier, il faut manger tout ça, ça prend du temps», dit M. Tremblay.

Pour M. et Mme Tout-le-Monde qui n’ont pas le temps de manger ni de s’entraîner autant que des athlètes professionnels, les gains en masse musculaire tournent souvent plus autour de 1 kg par six mois, dit M. Karelis — mais il peut y avoir de grands écarts individuels, dûs notamment aux gènes et au profil hormonal de chacun.

Alors pourquoi est-ce à ce point difficile de gagner de la «masse maigre», comme disent les nutritionnistes (parce qu’on s’entend que pour la «masse grasse», c’est pas mal moins compliqué) ? On n’a pas encore de réponse complète et définitive, dit M. Karelis. Mais une hypothèse probable est que certains mécanismes d’«économie d’énergie» hérités de lointains ancêtres pourraient être à l’œuvre. «Si on regarde la chose à l’inverse, il ne semble pas y avoir de saturation pour les gras, explique-t-il. Le corps en veut, il «aime» consommer de la nourriture et les tissus adipeux peuvent stocker des graisses presque sans limite. Le muscle, lui, fait le contraire : il n’emmagasine pas d’énergie, il en dépense. Même quand on est au repos, les muscles dépensent de l’énergie, alors plus ta masse musculaire est grosse, et plus ton métabolisme de base (ndlr : la quantité d’énergie que le corps dépense lorsqu’il est au repos complet, juste pour respirer, faire battre le cœurs, faire fonctionner les organes, envoyer des signaux nerveux, etc.) va augmenter. Alors s’il est à ce point difficile de gagner de la masse musculaire, c’est peut-être une question de survie : le corps veut consommer et stocker, pas dépenser.»

Enfin, M. Tremblay indique que ce n’est habituellement pas uniquement du muscle que les athlètes prennent dans un premier temps. «Habituellement, ça va leur prendre une diète riche en calories et ça, ça fait gagner d’un peu de tout : du muscle, bien sûr, mais aussi de l’eau et des graisses. (…) Souvent, on va d’abord chercher à juste leur faire gagner du poids en premier, et ensuite on va travailler à convertir ça en muscles», dit-il.

Science

Pourquoi les étudiants internationaux viennent-ils étudier au Québec

LA SCIENCE DANS SES MOTS / La nouvelle réglementation relative à l’accès des étudiants internationaux au Programme de l’expérience québécoise (PEQ) est aujourd’hui sur toutes les lèvres. Des étudiants concernés et des représentants du milieu universitaire s’affrontent avec des responsables politiques (...). Nous voulons apporter quelques éclaircissements sur les motifs qui amènent les étudiants internationaux à venir étudier au Québec et de leurs projets d’avenir, une fois les études terminées, en faisant appel à une recherche effectuée en 2017 auprès d’une trentaine d’étudiants internationaux de maîtrise et doctorat de l’Institut national de la recherche scientifique (INRS).

Les motifs des étudiants de plusieurs pays pour partir et étudier au Québec découlent de stratégies personnelles mises en place afin de réaliser des projets professionnels souvent grâce à des situations favorables liées à l’environnement familial. Ces motifs sont soutenus par l’existence de «structures d’opportunité» qui peuvent être positives, comme les bourses d’études offertes dans le pays d’accueil, ou négatives quand il s’agit d’absence de perspective professionnelle dans le pays d’origine. Trois séries de motifs se trouvent à la source du départ vers les universités québécoises, soit : a) les motifs stratégiques, b) les motifs «expérientiels» et c) les motifs liés à un projet d’émigration au Canada.

Les motifs stratégiques

La grande majorité, soit deux tiers de nos répondants, invoque des motifs stratégiques, d’ordre instrumental pour justifier le départ pour faire des études au Québec. Ces motifs ont trait au projet de formation et à la carrière, et sont souvent en rapport avec un plan de perfectionnement et de réussite professionnelle. L’absence d’opportunités dans le pays d’origine des étudiants ou la logistique inadéquate pour faire de la recherche de même que le désir d’«apprendre différemment», se retrouvent également parmi ces motifs stratégiques.

Pour d’autres, apprendre et perfectionner l’anglais constitue une motivation stratégique importante, présente principalement parmi les étudiants d’origine française, mais également parmi certains Latino-Américains. Les expériences linguistiques font partie des motivations pour étudier à l’étranger mais elles sont toujours en connexion avec d’autres motifs liés à une expérience générale de vie à l’étranger. Sur ce plan, la langue d’enseignement joue un rôle important dans le choix des étudiants. Pour les francophones qui s’orientent vers des programmes où ils peuvent apprendre l’anglais, le Québec est une destination de choix; pour les autres, c’est la possibilité d’apprendre autant l’anglais que le français.

Découvrir une autre façon de faire de la science, approfondir son champ de spécialisation, ou vivre un autre type de relation pédagogique avec les professeurs sont d’autres motifs invoqués par les étudiants internationaux. Pour ces étudiants, le Québec, apparaît comme un lieu «entre-les-deux» où un type de « science à l’américaine » et les méthodes européennes d’apprentissage et de recherche se combinent de manière à enrichir leurs cursus pédagogiques. Le type de relation avec le directeur, moins hiérarchisé et plus direct est fortement apprécié. Le manque d’opportunités et les limites du système d’éducation dans le pays d’origine se retrouvent également parmi les motifs invoqués.

Les motifs «expérientiels»

Les motifs stratégiques présentés sont imbriqués à des motifs d’ordre «expérientiel» liés à l’idée de «vivre des expériences» significatives comme découvrir d’autres pays, appréhender la diversité culturelle à l’étranger ou se découvrir eux-mêmes en vue d’être plus autonomes dans leur vie. Derrière ces motifs, l’enjeu des études ou de la carrière, sans être mis de l’avant, est toutefois présent. Le séjour pour les études à l’étranger apparaît aussi comme un moyen d’élargir l’horizon des expériences qui, sur le plan de leur employabilité future, donnera un signal positif d’initiative et de mobilité. Ces motifs peuvent aussi se combiner  à une forme de distinction et de réussite sociale.

Enfin, certains étudiants ont mis en place leur projet d’études à l’étranger pour entamer un processus d’immigration au Canada. Ce processus a été élaboré en tenant compte d’un projet de vie plus large qui inclut les exigences de la sphère professionnelle et des contraintes sociales diverses. Les études apparaissent ainsi comme le premier pas vers l’obtention rapide de la résidence permanente canadienne principalement à travers le Programme de l’expérience québécoise. Cette série de motifs est favorisée d’une part par le système canadien de sélection des immigrants qui priorise les personnes les plus qualifiées et, d’autre part, par la demande d’étudiants des universités québécoises, qui recrutent de plus en plus à l’international.

Science

Le déclin des insectes dans la plus grande discrétion

Les rumeurs d’un déclin de la population d’insectes courent depuis une vingtaine d’années. Dans la recherche la plus fouillée à avoir été menée sur le terrain, des chercheurs allemands viennent d’évaluer que, sur la base d’un suivi de 150 sites différents dans leur pays, la perte de biomasse moyenne serait d’environ 50 % sur 10 ans. Le nombre d’espèces aurait décliné du tiers.

Ce n’est pas un hasard si la recherche vient d’Allemagne: ce sont des études à plus petite échelle qui avaient tiré la sonnette d’alarme dans ce pays depuis les années 2000. Et qui avaient poussé à la publication d’autres compilations régionales dans d’autres pays. Le printemps dernier, une méta-analyse, c’est-à-dire une synthèse de la littérature scientifique sur le sujet, avait conclu que le recul des populations d’insectes était répandu chez un très grand nombre d’espèces éloignées les unes des autres.

La nouvelle recherche, parue le 30 octobre dans Nature, précise que sur les 2700 espèces d’arthropodes (ce qui inclut notamment les araignées ou les mille-pattes) étudiées, le recul est généralisé, peu importe le degré d’utilisation du territoire (urbanisation, routes ou agriculture). Mais il semble plus élevé là où l’étendue de terres agricoles est la plus élevée. Dans les forêts, la perte de biomasse n’est «que» de 40 %. Les auteurs de l’étude soulignent à ce sujet qu’en attendant d’avoir une certitude sur les pourcentages, la gestion des terres agricoles devrait faire l’objet d’un virage majeur, ne serait-ce que pour que les agriculteurs et les autorités locales se coordonnent avec les initiatives de conservation de la nature qui sont entreprises dans leur propre voisinage.

Il faut rappeler que si la disparition d’insectes touche moins de cordes sensibles chez le public que la disparition d’oiseaux ou d’animaux «charismatiques», elle n’en est pas moins une source de préoccupation majeure: la disparition d’insectes affecte les sources d’alimentation de quantité d’animaux, ils jouent un rôle fondamental dans la reproduction des végétaux en transportant leur pollen, et dans la régulation des écosystèmes en général. Rien qu’en terme de biomasse, c’est-à-dire le «poids» total de la vie sur Terre, les insectes dominent les autres espèces. S’il devait s’avérer que le déclin est vraiment aussi élevé que ce que cette étude révèle en Allemagne, ce serait l’équivalent d’une extinction de masse, en cours dans la plus grande discrétion.

Science

Des fossiles donnent de précieux indices sur notre évolution vers la marche

PARIS — La découverte de fossiles d'un singe inconnu, vieux de plus de 11 millions d'années, permet de mieux comprendre le passage de nos ancêtres sur leurs deux jambes, selon une étude publiée la semaine dernière dans la revue Nature.

Si un consensus existe sur le fait que nos ancêtres ont dû opter pour la position debout il y a environ sept à cinq millions d'années, le comment fait toujours débat au sein de la communauté scientifique. Certains considèrent que le changement s'est opéré alors que nos ancêtres vivaient toujours dans les arbres mais s'y dressaient déjà sur deux jambes, quand d'autres avancent qu'ils passaient déjà le plus clair de leur temps sur la terre ferme où ils se déplaçaient à quatre pattes.

Mais la découverte en Bavière, en Allemagne, de fossiles d'un nouveau singe, vieux de 11,62 millions d'années, dont les os des membres inférieurs et postérieurs s'avèrent bien conservés, vient faire pencher la balance en faveur du premier scénario. «Les fossiles comprennent des restes d'au moins quatre individus, avec un squelette partiel suffisamment complet pour décrire, en détail, la morphologie des membres et de la colonne vertébrale et les proportions du corps», expliquent dans l'étude Madelaine Bôhme, de l'Université de Tübingen, ses collègues.

Nommé Danuvius guggenmosi, l'animal possède des bras faits pour sauter de branches en branches et des membres postérieurs morphologiquement adaptés à la marche. Ce singe avait également un gros orteil qui lui permettait de marcher sur la plante des pieds, précise l'étude. Une caractéristique qui «suggère que D. Guggenmosi aurait pu marcher le pied posé à plat sur les branches», explique dans un commentaire publié avec l'étude Tracy Kivell, de l'université du Kent au Royaume-Uni.

«Les membres de cette espèce se déplaçaient d'une façon jusqu'à aujourd'hui inconnue», ajoute Tracy Kivell, qui y voit «un bon modèle de possible locomotion pour les derniers ancêtres communs» aux grands singes et à l'homme.

Science

Le ciel de novembre 2019: un festival de planètes

Le mois de novembre offre, cette année, un véritable festival de planètes qui occupera les astronomes amateurs et amatrices pour plusieurs longues nuits.

Commençons par la planète la plus proche du Soleil qui sera sans aucun doute « la star » du mois de novembre : Mercure. La journée du 11 novembre sera tout simplement exceptionnelle. Mercure effectuera un rare passage devant le Soleil. Depuis la Terre, c’est comme si nous assistions à une éclipse annulaire de Soleil par Mercure. Mais contrairement aux éclipses de Soleil par la Lune, le diamètre apparent de Mercure est bien trop petit pour pouvoir cacher le Soleil de manière significative. En fait, la planète est tellement petite qu’il vous faudra observer son passage devant le Soleil à l’aide d’un télescope et obligatoirement avec un filtre solaire conçu pour éviter tout dommage irréversible à vos yeux.

Plusieurs groupes d’astronomes amateurs vous offriront la possibilité d’observer ce phénomène rarissime. Le site de la Fédération des astronomes amateurs du Québec (faaq.org) dresse la liste des événements publics qui auront lieu un peu partout en province le 11 novembre. Que vous possédiez ou non un télescope, ne manquez pas cette occasion, car le prochain passage de Mercure devant le Soleil, visible du Québec, ne se produira que dans une trentaine d’années, le 7 mai 2049 !

Pour toute information supplémentaire sur ce passage, consultez notre page web spéciale : https://espacepourlavie.ca/passage-de-mercure-11-novembre-2019

Poursuivons notre festival de planètes en partant à la découverte de Vénus. Dès la mi-novembre, Vénus brillera dans le ciel pendant presque une heure après le coucher du Soleil. En fait, Vénus est présente dès que le Soleil disparaît et même un peu avant — elle est si brillante qu’on peut l’apercevoir même en plein jour ! Pour la trouver, choisissez un horizon sud-ouest bien dégagé, profitez du spectacle du coucher du Soleil, et dès que celui-ci s’enfonce sous l’horizon, vous apercevrez la planète très brillante légèrement à gauche de la dernière position du Soleil, à quelques degrés de hauteur. Un diamant éclatant dans l’obscurité tombante.

Suivant de près, à gauche de Vénus, vous trouverez Jupiter, visible tout le mois de novembre, légèrement moins lumineuse mais tout aussi spectaculaire d’éclat. Prenez le temps d’utiliser des jumelles ou même un petit télescope pour profiter de la ronde de ses quatre principales lunes. Un spectacle que Galilée avait déjà remarqué il y a plus de 400 ans ! À observer dès le coucher du Soleil.

Puis, vient la magnifique Saturne, encore plus haute et à gauche de Jupiter. Avec un petit télescope, elle saura vous révéler ses mystérieux anneaux.

La Lune comme guide céleste

Pour repérer facilement ces planètes, vous pouvez aussi utiliser la Lune comme un gros phare dans la nuit. Ainsi, le premier novembre vers 20 heures, la Lune s’approche de Saturne par la droite. 

Le festival du mois de novembre connaitra son apothéose le 28 : juste après le coucher du Soleil, vers 17 heures, vous aurez la chance de voir Jupiter bas sur  l’horizon, Vénus tout près à sa gauche, un fin croissant de Lune juste au-dessus de Vénus, et Saturne, encore plus à gauche de la Lune. Une rencontre de trois planètes et de notre satellite naturel ! 

Enfin, le 29 à la même heure, les trois belles planètes seront toujours présentes sensiblement au même endroit, mais ce sera au tour de Saturne de recevoir la visite d’un croissant de Lune un peu plus développé.

Rappelons en terminant que la nuit du 2 au 3 novembre verra le changement d’heure de l’heure avancée à l’heure normale. N’oubliez donc pas de reculer vos cadrans d’une heure cette nuit-là.

Bonnes observation! 

Olivier Hernandez est astronome et directeur du Planétarium Rio Tinto Alcan.

Au Planétarium de Montréal :
Un seul billet pour voir tous les films présentés le jour de votre visite au Planétarium Rio Tinto Alcan. Consultez l’horaire sur notre portail Web à espacepourlavie.ca.

Légende de la figure : [L-V-J_20191128-2_FR.png]

Le mince croissant lunaire rencontre les brillantes planètes Vénus et Jupiter le 28 novembre, bas à l’horizon sud-ouest au crépuscule. (Illustration Planétarium Rio Tinto Alcan, image de base Stellarium.org)

Science

Le boisement en région boréale: peu de bénéfices climatiques ?

LA SCIENCE DANS SES MOTS / Plusieurs textes récents dans les médias ont rapporté les enjeux de gouvernance de certaines entreprises qui génèrent des crédits de carbone à partir de la plantation d’arbres. Au-delà de ces problèmes se dresse cependant un écueil plus fondamental, amené celui-là par le développement des connaissances scientifiques sur un facteur appelé albédo.

Le Groupe intergouvernemental d’experts sur l’évolution du climat (le GIEC), un organe des Nations Unies, a publié en août dernier une synthèse scientifique sur l’interaction entre les terres et les changements climatiques (https://www.ipcc.ch/report/srccl/). Dans ce rapport, à la section 2.6, on peut lire (traduction libre): «sous les hautes latitudes des régions boréales, des études d’observation et de modélisation montrent que le boisement et le reboisement entraînent des effets locaux et globaux de réchauffement, en particulier dans les régions couvertes de neige en hiver, car l’albédo est plus bas pour les forêts que pour la neige nue.»

Dans cet extrait du texte originalement en anglais, les termes boisement et reboisement réfèrent spécifiquement à des plantations sur des sites potentiellement forestiers qui, à cause de feux récurrents ou autres raisons, sont libres d’arbres ou presque depuis plusieurs décennies. Le terme albédo, quant à lui, réfère à la réflectivité des surfaces. Sommairement, une surface avec un albédo très faible, par exemple une route fraîchement pavée, absorbe presque toute l’énergie du rayonnement solaire et la transforme en chaleur. A contrario, une surface avec un albédo très fort, par exemple une neige fraîche, est éblouissante parce qu’elle réfléchit presque toute l’énergie du rayonnement solaire et n’en transforme donc presque pas en chaleur.

Peu importe où l’on se trouve sur la planète et cela en toutes saisons, les forêts sont plus foncées avec un albédo plus faible, et donc une absorption de l’énergie solaire plus forte, que les milieux ouverts. La présence de neige au sol dans les régions froides comme au Québec augmente la différence d’énergie solaire absorbée entre les forêts où la neige est masquée, et les milieux ouverts où la neige est exposée.

Le boisement augmente donc l’énergie solaire absorbée en transformant les milieux ouverts en forêts, et cette augmentation est plus forte là où la neige persiste tard au printemps quand le soleil se fait plus fort. C’est cet effet «réchauffant» du boisement qui serait assez important pour annuler les bénéfices climatiques anticipés de la séquestration de carbone par les arbres en croissance.

La conséquence de ce phénomène bien réel en forêt boréale, au Québec par exemple, c’est que le facteur albédo doit dorénavant être considéré dans les décisions de boisement des milieux ouverts. C’est aussi ce que le GIEC a démontré dans son dernier rapport. Pourquoi n’a-t-on pas compris ça avant, surtout que le phénomène de l’albédo est connu depuis très longtemps? Bien simplement, quand on a élaboré le Protocole de Kyoto et développé les premiers crédits de carbone, la technologie ne permettait pas encore de mesurer l’albédo des forêts. Depuis ce temps, grâce à de nouveaux satellites, les scientifiques peuvent calculer et comparer l’effet climatique du changement d’albédo à celui de la séquestration de carbone suite à la plantation d’arbres.

Doit-on baisser les bras ? Pas tout à fait. Les études sur lesquelles le GIEC s’est basé pour son analyse la plus récente sont presque toutes faites sur de grands ensembles forestiers avec une représentation très grossière de leur composition en essences d’arbres. Il est donc possible que la plantation d’essences dont les feuilles tombent l’hiver (mélèze, bouleaux, peupliers, etc.), et dont les cimes dégarnies ne masquent pas autant la neige, permette de dégager un bénéfice climatique.

Il y aurait aussi sans doute lieu d’élargir les frontières de l’analyse et de voir aussi dans les plantations une source de fibres dont les produits serviront de manière renouvelable à la lutte aux changements climatiques. Les calculs des bénéfices attendus sont plus complexes mais pourraient dégager sans doute un bilan plus fort en faveur de la lutte aux changements climatiques.

Finalement, on peut tout de suite penser qu’on devrait faire ces plantations préférentiellement dans les régions où la neige fond plus rapidement, où la croissance des arbres est plus forte, et où les risques de feux sont faibles. Comme on parle d’investissements de fonds publics ou privés qui ne sont pas illimités, il est logique de faire des choix qui maximisent les bénéfices climatiques de chaque projet de boisement.

Les connaissances actuelles dictent que l’on tienne dorénavant compte de l’effet albédo dans les décisions entourant la plantation d’arbres et les crédits de carbone dans les projets de boisement. Ceci devient même une question de crédibilité.

Science

Une nouvelle espèce de crustacé découverte dans... la gueule d'un requin-baleine

TOKYO — La gueule d'un requin-baleine n'a rien d'un environnement hospitalier pour élire domicile, a priori, mais c'est pourtant là que des chercheurs japonais viennent de dénicher une nouvelle espèce de gammaridés, une sous-catégorie de crustacés.

Les gammaridés présentent une alimentation très variée et sont capables de vivre dans des environnements extrêmes — aussi bien dans des lacs de haute montagne qu'au fond des océans. «Ces créatures, qui mesurent généralement de trois à cinq centimètres, sont incroyables parce qu'elles peuvent vivre dans des environnements tellement différents», a déclaré à l'AFP Ko Tomikawa, un chercheur de l'université de Hiroshima (ouest du Japon), lequel ne s'attendait toutefois pas à en trouver squattant la gueule d'un requin-baleine.

La nouvelle espèce, qui a été baptisée podocerus jinbe — du nom japonais du requin-baleine (jinbe zame) —, est de couleur brune et fait à peine 5 millimètres de long environ, avec des pattes poilues pour mieux attraper des micro-organismes, a expliqué le chercheur. «La bouche d'un requin-baleine est probablement un bon habitat» pour ce petit crustacé, a-t-il estimé, car «de l'eau de mer fraîche, nécessaire pour lui permettre de respirer, y pénètre régulièrement, tout comme de la nourriture. Cela lui fournit aussi un lieu sûr, sans prédateur».

Environ un millier de ces petits crustacés ont été trouvés dans les fentes branchiales de la gueule de ce géant des mers, qui outre leur fonction respiratoire servent à filtrer l'eau pour en séparer la nourriture.

Science

Découverte du «berceau de l’humanité» ? Pas si vite

DÉTECTEUR DE RUMEURS / L’Homo sapiens serait apparu au Botswana, une région du sud de l’Afrique, selon une recherche publiée cette semaine. L’annonce a cependant été rapidement contestée par des scientifiques. Le Détecteur de rumeurs s’est demandé pourquoi.

L'origine de la rumeur

L’Homo sapiens est une «branche» plus récente de l’évolution humaine dont l’émergence est souvent estimée à 200 000 ans, dans une région indéterminée de l’Afrique.
 
Ces dernières années, beaucoup de chercheurs ont allégué que plutôt que de continuer à imaginer l’Homo sapiens comme ayant émergé en un seul endroit d’Afrique, il faudrait plutôt le voir comme le résultat de la convergence de plus d’un groupe vivant en plus d’un endroit du continent. C’est cette dernière idée que conteste la recherche parue lundi dans Nature, en pointant du doigt une région précise, le Botswana.

La généticienne Vanessa Hayes et ses collègues australiens, sud-africains et sud-coréens, s’appuient sur une récolte de 1217 échantillons d’ADN provenant de différentes populations actuelles de la Namibie et de l’Afrique du Sud. Tous ces échantillons proviennent de l’ADN mitochondrial qui, parce qu’il est transmis par la mère, permet de retracer une généalogie plus fidèlement. C’est à partir de cette récolte qu’ils concluent que les «humains anatomiquement modernes» sont apparus dans la région du Botswana il y a 200 000 ans, et qu’ils y sont restés pendant 70 000 ans avant de se disperser dans le reste du continent.

Il y a 200 000 ans, cette région abritait un lac aujourd’hui disparu et des terres humides entourées de déserts. Les relevés climatiques montrent que le pourtour désertique se serait progressivement humidifié, ouvrant notamment vers le nord-est un corridor «vert» qui aurait permis à ces humains de s’aventurer vers le reste du continent il y a 130 000 ans.

Première objection

Le premier groupe à avoir émis des objections dès lundi s’appuie sur la génétique. Si l’ADN mitochondrial est réputé être un bon indicateur pour des lignées relativement récentes, en tirer des conclusions vieilles de 200 000 ans est jugé plus hasardeux. À tout le moins, notent les chercheurs interrogés par le magazine The Atlantic, il faudrait élargir l’analyse à des populations d’autres régions du monde, pour avoir des bases de comparaison.

«C’est intéressant et important à savoir», y commente l’anthropologue et généticienne suisse Chiara Barbieri, mais déduire d’où une lignée mitochondriale est originaire, uniquement en se basant sur des gens qui la partagent aujourd’hui, est «délicat». C’est comme, ajoute l’archéologue Eleanor Scerri, «de tenter de reconstruire un langage à partir d’une poignée de mots.»

Deuxième objection

Le second groupe de chercheurs à avoir émis des objections s’appuie sur les découvertes récentes de fossiles qui suggèrent que l’Homo sapiens soit le résultat de la convergence de plus d’un groupe ayant évolué séparément dans plus d’un endroit de l’Afrique. Les promoteurs de cette théorie dite «pan-africaine» citent des fossiles vieux de 315 000 ans au Maroc, qui présentent beaucoup de traits communs avec nous, tout comme des fossiles estimés à 260 000 ans en Afrique du Sud. Il faut savoir que de s’entendre sur une définition détaillée de ce qui constitue un «humain moderne», à partir des fossiles, reste un gros débat en paléontologie. Par exemple, les crânes du Maroc sont plus allongés que les nôtres, mais pas autant que ceux de nos cousins Néandertaliens; leurs joues sont semblables aux nôtres, mais ils ont des fronts plus petits; dans l’ensemble, ils ressemblent plus à nous qu’à toute autre espèce «pré-Homo sapiens».

Troisième objection

Les résultats de la récente étude contredisent des travaux précédents. Les peuples locaux Khoï (ou Khoe) et San, qui ont fourni une partie des 1217 échantillons d’ADN, ont déjà fait l’objet de recherches génétiques sur leurs ancêtres: l’une d’elles concluait qu’ils s’étaient séparés des autres populations africaines il y a 260 000 à 350 000 ans. La nouvelle recherche n’explique pas le pourquoi de cette contradiction.


Verdict : la recherche ouvre des fenêtres inédites sur le passé et pose des questions importantes aux yeux des experts du domaine. Mais de titrer qu’on a identifié «le berceau de l’humanité» était prématuré.