Science

VIH: erreur sur l'erreur médicale...

SCIENCE AU QUOTIDIEN / «Il semble qu’il n'y ait que deux théories reconnues sur l'origine du VIH: la «Bushmeat Theory» et la «VOP», pour vaccin oral contre la polio. D’après cette dernière, dans le Congo belge des années 50, la course aux profits aurait incité Dr Hilary Koprowski à fabriquer un VOP afin de profiter du fait que le vaccin Salk venait d'être banni aux États-Unis. Dr Koprowski aurait fabriqué son vaccin dans des cellules de chimpanzés infectés au virus de l’immunodéficience simienne (VIS, l’équivalent du VIH chez le singe). Alors, la source du VIH est-elle une des plus graves erreurs médicales de l’histoire ?», demande Michel Cormier, de Mont-Saint-Hilaire.

On sait que le VIH, ce terrible virus qui s’attaque à nos cellules immunitaires jusqu’à anéantir nos défenses, est génétiquement très, très proche du VIS (lire : presque identique), et on sait que celui-ci est endémique chez le chimpanzé — c’est-à-dire que toutes les populations de chimpanzés sont porteuses d’une souche ou d’une autre de VIS, et ce de manière permanente. Il est certain qu’à l’origine, le VIH était en fait un VIS qui a fait le «saut» d’un chimpanzé à un être humain. La question est : comment est-ce arrivé ?

À cet égard, on ne peut pas vraiment dire qu’il y a «deux théories reconnues». En fait, il n’y en a plus qu’une seule, essentiellement : la théorie de la «viande de brousse», qui veut que le «transfert» initial soit survenu parce que quelqu’un, quelque part dans l’Afrique centrale du début du XXe siècle, a apprêté une carcasse de chimpanzé infecté et s’est coupé ce faisant. Par la suite, une série de facteurs ont permis à l’épidémie naissante de persister et, éventuellement, d’essaimer mondialement — j’y reviens.

La théorie du vaccin de la polio, elle, est largement considérée comme «invalidée» par la communauté scientifique, même si son auteur, le journaliste anglais Edward Hooper, s’y accroche encore farouchement. M. Hooper a publié quelques articles sur son hypothèse dans les années 90, textes qui ont eu un grand écho médiatique d’ailleurs, ainsi qu’un livre sur le même sujet en 1999. Cela a amené des chercheurs à étudier ses thèses mais, loin de la valider, ils y ont surtout trouvé d’énormes trous. Ainsi, en avril 2001, trois savants ont analysé dans Science le contenu génétique de vieilles doses de vaccins oraux anti-polio de la fin des années 50. Les échantillons étaient fournis par l’Institut Wistar, qui était derrière la campagne de vaccination en Afrique centrale soupçonnée d’être à l’origine du VIH. Ils n’ont pas trouvé la plus petite trace d’ADN de chimpanzé [http://bit.ly/2KKnmdt], mais ont clairement identifié de l’ADN de macaque, ce qui montre que le VPO n’a pas été cultivé dans des cellules de chimpanzé, mais bien de macaque. Le macaque n’est pas porteur de souches de VIS qui auraient pu causer l’épidémie humaine actuelle.

Autre (gros) problème : comme on peut le lire dans le livre du chercheur de l’Université de Sherbrooke Jacques Pépin The Origins of AIDS (ouvrage splendide et à lire absolument, en passant), des analyses génétiques ont montré que le VIH est dû à un «saut» unique vers l’humain, survenu autour de… 1920, à une dizaine d’années près. Alors le vaccin oral antipolio, mis au point à la fin des années 1950, ne peut tout simplement pas être en cause.

En outre, M. Hooper a également identifié la région de Kisangani comme origine pour les chimpanzés dont les cellules auraient été utilisées pour le VOP, mais une étude parue dans Nature en 2004 a révélé que les souches de VIS qui circulent dans ce secteur sont trop différentes du VIH pour en être la source [http://bit.ly/2GpmyW4].

Ce qui semble s’être passé, lit-on dans l’ouvrage de M. Pépin et ailleurs [http://bit.ly/2Pjc7aB], c’est qu’après le passage initial à l’humain, le VIH a traversé une sorte de période de «latence» pendant quelques décennies. C’est Kinshasa (et non Kisangani) qui a été le ground zero de la pandémie, c’est là où le virus montre sa plus grande diversité génétique, c’est de là que viennent les plus anciens échantillons séropositifs — remontant à la fin des années 50, époque où le virus arborait d’ailleurs déjà une certaine diversité, signe qu’il était en circulation depuis un bon bout de temps. Tout indique que le virus est peu sorti de Kinshasa jusqu’à ce fameux tournant des années 60, et qu’à Kinshasa même, il restait confiné à une très petite partie de la population, possiblement des prostituées et leurs clients, imagine-t-on.

Que s’est-il passé pour que le VIH finisse par prendre son triste envol ? Eh bien, il est possible que ce soit une erreur médicale qui soit en cause après tout, du moins en partie, mais pas l’erreur que croit M. Hooper. Dans les années 50, les autorités coloniales des Congo belge et français ont entrepris des campagnes de vaccination massives qui étaient bien intentionnées, mais qui se sont souvent déroulées dans de mauvaises conditions d’hygiène. Les seringues n’étaient pas jetées après usage, mais réutilisées — et pas toujours après avoir été désinfectées. Ce n’est pas un hasard si ces campagnes ont coïncidé avec des sursauts d’hépatite C, une maladie qui ne se transmet presque que par le sang, indique M. Pépin dans ses travaux. Alors on peut penser que le VIH en a lui aussi «profité».

Ce ne fut probablement pas le seul facteur, remarquez bien. L’Afrique centrale a subi des changements politiques, économiques et sociaux profonds dans les années 50 et 60. Jusqu’au milieu du XXe siècle, la prostituée «type» à Kinshasa était une jeune femme «entretenue» par trois ou quatre clients, avec qui elle maintenait une relation sur plusieurs années. Par la suite, à cause de la pauvreté grandissante, la prostitution a pris une tournure plus désespérée, chaque femme pouvant voir jusqu’à 1000 clients par année. Il est fort possible que le VIH ait profité de cela aussi pour se répandre en Afrique centrale à partir des années 50 et 60, et éventuellement ailleurs dans le monde — mais c’est une autre histoire.

Science

Depuis quand sommes-nous riches?

SCIENCE AU QUOTIDIEN / «Mon professeur d’histoire attribue la différence majeure entre la pauvreté de l'Afrique et la richesse de l’Europe par le fait que nous sommes issus de la civilisation gréco-romaine. Comment expliquer cet énorme écart de richesse?» demande Robert Parthenais.

Aussi grand, brillant et puissant que fut l’empire romain, son héritage ne peut pas expliquer les écarts de richesse et de puissance dans le monde d’aujourd’hui, deux millénaires plus tard. Une preuve parmi d’autres : tout de suite après sa chute, au Ve siècle, l’Europe médiévale (qui était pourtant son héritière directe) a sombré dans une longue période parfois nommée âge des ténèbres. Pendant des siècles, elle ne fut ni riche, ni puissante. Au Moyen-Âge, c’est plus le monde arabe qu’elle qui a repris le «flambeau de la science» — les mots algèbre et algorithme nous viennent d’ailleurs de l’arabe. L’Europe de l’époque, loin de s’imposer au reste du monde comme elle le fera par la suite, était plutôt dans une position de faiblesse : une grande partie l’Espagne passera plusieurs siècles sous domination musulmane et de l’autre côté de la Méditerranée, à son apogée l’Empire ottoman (basé dans la Turquie actuelle) comprenait tout le sud-est de l’Europe.

Il est difficile d’évaluer la richesse des sociétés à plusieurs siècles de distance, mais les données qu’on a suggèrent que le reste du monde n’avait rien à envier à l’Occident, à l’époque. Autour de l’an 1000, on estime que le produit intérieur brut (PIB) de l’Europe de l’ouest (la partie la plus riche de ce continent à l’heure actuelle) équivalait à environ 775 $ per capita, en argent de 2019. C’était comparable, voire un peu moins que le Japon (820 $), le reste de l’Asie (870 $, la Chine et l’Inde étaient très prospères pour l’époque) et même l’Afrique (800 $), d’après les calculs de l’économiste anglais Angus Maddison.

Jusqu’à la Révolution industrielle, la croissance économique restera anémique pour tout le monde, mais elle explosera, littéralement, en Europe par la suite. Deux chercheurs de la London School of Economics ont examiné récemment la croissance dans six pays européens de la fin du Moyen Âge jusqu’à l’an 2000. Ils ont notamment compté le nombre de séquences de 4 années consécutives où un pays avait connu une croissance annuelle de son PIB d’au moins 1,5 %. Une telle croissance est considérée comme faible de nos jours mais, à la fin du Moyen-Âge, c’était exceptionnel. En 200 ans, (de 1300 à 1500), ces six pays ont connu un grand total de… deux «séquences heureuses» de la sorte. Par comparaison, juste au XXe siècle, ils en ont connu pas moins de 38. C’est vraiment la Révolution industrielle, et non l’héritage gréco-romain, qui a fait la différence.

Alors, pourquoi est-ce en Europe, et d’abord en Angleterre à partir du milieu du XVIIIe siècle, que la Révolution industrielle est survenue ? C’est en quelque sorte «la question-mère de toutes les sciences sociales», dit le politologue de l’Université Laval Louis Bélanger, qui donne des cours sur la montée et le déclin des grandes puissances : c’est en partie pour essayer d’expliquer les écarts de richesse entre les sociétés industrialisées et les autres que ces disciplines sont nées.

Il existe plusieurs thèses différentes à ce sujet, dit M. Bélanger, mais des travaux récemment pointent vers un mélange de contexte politique et de «hasard des contingences historiques». Il semble que, pour une série de raisons, l’Angleterre du XVIIIe siècle ait offert le parfait compromis entre la sécurité d’un État central fort, capable d’assurer la sécurité de ses citoyens et d’appliquer ses lois, et d’un État pluraliste où le pouvoir est minimalement partagé. Grosso modo, l’entrepreneurship tel qu’on le connaît depuis quelques siècles demande un État central assez fort pour fournir un environnement relativement prévisible et une société pas trop chaotique, mais pas assez dominateur pour s’accaparer arbitrairement le fruit de l’entreprenariat ou pour le diriger.

Et il s’est adonné que le moment où ces conditions ont prévalu en Angleterre a coïncidé avec l’arrivée d’innovations technologiques et avec la conquête de nouveaux continents. C’est la conjonction, due en partie au hasard, de tous ces facteurs qui aurait permis l’explosion économique qu’a été la Révolution industrielle.

Cela dit, il existe aussi d’autres pistes d’explication aux inégalités entre les nations, qui peuvent compléter celle de l’industrialisation. Certains insistent sur l’apport de la géographie. Dans son célèbre ouvrage Guns, Germs and Steel, l’auteur américain Jared Diamond fait par exemple remarquer que l’Eurasie est orientée sur un axe est-ouest, ce qui facilitait la dissémination des nouvelles cultures. Dans l’Antiquité, une nouvelle plante domestiquée pouvait se frayer un chemin de la Chine jusqu’en France sans avoir à passer par beaucoup de latitudes différentes. En Afrique et dans les Amériques, qui s’étalent du nord au sud, cela a pu limiter la diffusion de nouvelles cultures, et freiner le développement.

Aux hypothèses géographiques s’ajoutent des explications plus culturelles, comme l’idée (développée par un des pères de la sociologie, Max Weber, au début du XXe siècle) que le protestantisme sied mieux au capitalisme que le catholicisme. Et d’autres encore expliquent les inégalités par des facteurs plus politiques, que ce soit à cause de facteurs externes (l’impérialisme qui a maintenu des pays entiers dans la pauvreté, par exemple) ou internes (comme les conditions ayant mené à la Révolution industrielle).

Ce sont davantage ces dernières qui ont la cote en recherche depuis quelques années, dit M. Bélanger, mais encore une fois, ces thèses ne s’excluent pas forcément les unes les autres.

Autres sources :

- Angus Maddison, The World Economy. Volume 1 : A Millennial Perspective, OCDE, 2006, https://bit.ly/2miErNc

- Roger Fouquet et Stephen Broadberry, «Seven centuries of European economic growth and decline», Journal of Economic Perspectives, 2015, https://bit.ly/2VnqWew

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Pitou et minou ont-ils une grosse empreinte carbone?

SCIENCE AU QUOTIDIEN / «La responsabilité des gaz à effets de serre est toujours mise sur le dos des individus qui conduisent une auto ou qui mangent de la viande. Mais on ne parle jamais du coût écologique des animaux domestiques. Il y a les déjections, à l’intérieur comme à l’extérieur, la fabrication de leur nourriture sous toutes sortes de formes, le transport, les médicaments, etc. Alors combien ça «coûte», un animal domestique, en termes de gaz à effet de serre ?», demande Louise Saintonge, de Québec.

Question bien difficile que voici, car très peu d’études ont été faites à ce sujet. Pour tout dire, en 2017, deux chercheurs en environnement, Seth Wynes (Université de Lund, en Suède) et Kimberly A. Nicholas (Université de Colombie-Britannique), ont tenté de comparer tous les gestes petits et grands que M. et Mme Tout-le-Monde peuvent faire pour réduire leur empreinte carbone, et ils croyaient initialement que se priver d’un chien ferait partie des gestes ayant le plus d’impact. Mais ils ont dû abandonner cette partie de leur travail car «nous n’avons pu trouver que deux études, avec des résultats contradictoires, sur l’empreinte écologique des chiens», ont-ils écrit dans un article publié récemment dans les Environmental Research Letters.

De ces deux études, qui datent de 2011 et de 2013, l’une a conclu qu’un chien de la taille d’un Labrador implique des émissions d’environ 60 kg de gaz à effet de serre par année — autrement dit, presque rien —, alors que l’autre évaluait l’empreinte carbone du même toutou à... 1,6 tonne ! Pour donner une idée de ce que cela représente, c’est l’équivalent d’un vol trans-Atlantique, et deux fois plus que le CO2 qu’une personne peut «sauver» en devenant végétarien pendant un an. Bref, c’est énorme.

Un peu après la parution de l’article de Wynes et Nicholas, une troisième étude sur le sujet est parue, cette fois dans la revue savante PLoS – One. Son auteur, le géographe de UCLA Gregory S. Okin, y fait un estimé du nombre de calories consommées chaque année par les quelque 163 millions de chats et chiens domestiques vivant aux États-Unis et la part de ces calories qui proviennent de sources animales, de même que la masse totale de leurs déjections. Il estime que cela représente environ 33 % de la consommation humaine de calories animales et 30 % des excréments humains, et comme on connaît les GES associés à chacun, M. Okin déduit que les chiens et chats américains sont responsables d’environ 64 millions de tonnes de CO2 chaque année, soit l’équivalent de 13,6 millions de voitures.

Cette étude-là ferait donc pencher la balance du côté de l’hypothèse voulant que les animaux de compagnie ont une grosse empreinte carbone. Cependant, dans ces exercices comptables-là comme dans bien d’autres choses, le diable se cache toujours dans les détails. Ainsi, les calculs de M. Okin partent du principe que si les Américains ne possédaient plus ni chats ni chiens demain matin, alors l’Oncle Sam pourrait réduire sensiblement ses cheptels de bœufs, porc, poulets, etc. Ce qui réduirait bien sûr de beaucoup l’impact environnemental des animaux de compagnie.

Or c’est une prémisse très contestable parce qu’il n’y a tout simplement pas, ou extrêmement peu, d’élevage qui est fait principalement pour fabriquer la nourriture pour animaux. Pratiquement tout le bétail est destiné à la consommation humaine et, c’est avec ce qu’il reste une fois qu’on a enlevé «nos» morceaux que l’on produit les fameuses «croquettes» pour pitou et minou, ainsi que la nourriture en canne. On parle ici, par exemple, de farine d’os, de sang, de pattes, de becs et d’organes, de même que de la «vraie» viande invendue en supermarché et passée date, des graisses de restaurant, de bétail malade ou mourant, etc [https://bit.ly/2FkeFAS].

Bref, même si on faisait disparaître tous les animaux de compagnie, il faudrait maintenir les cheptels aux mêmes niveaux pour répondre à la demande humaine. M. Okin lui-même le reconnaît dans son article, d’ailleurs, mais il maintient tout de même ses conclusions parce que, argue-t-il, la plupart de ces ingrédients pourraient devenir propre à la consommation humaine après transformation. La preuve en est, dit-il, que l’on connaît bien des cas où des gens très pauvres se sont nourris de nourriture pour chats ou chiens. En outre, «la tendance est à la nourriture de luxe qui inclut plus de produits animaux que les Américains considèrent comme comestibles», fait-il valoir.

Il est vrai que ce type de nourriture est plus populaire qu’avant, mais ce sont encore les «croquettes» qui dominent le marché, et de loin : 8,7 milliards $ en 2012 contre 2,3 milliards $ pour la nourriture «humide», d’après des chiffres cités par M. Okin. Et encore, cette dernière n’inclut pas que des parties «comestibles pour l’humain», loin s’en faut. Alors sans dire qu’il n’a aucune valeur, l’argument voulant que la nourriture pour chiens/chats «concurrence» l’alimentation humaine est encore très théorique.

Science

Le marais «miracle» de Beauport…

SCIENCE AU QUOTIDIEN / «J'habite dans le quartier Beauport et tout près de chez moi, il y a dans un petit boisé un marais d'environ 100 mètres carrés qui ne gèle jamais, alors que le courant y est très faible. On y voit d’ailleurs encore des plantes aquatiques toujours vertes, même si la température plonge sous les -20 °C pendant des semaines. Je me demande comment il se fait que de grosses rivières finissent par geler mais pas ce petit marais où l'eau est quasi stagnante », demande Daniel Ross.

Effectivement, comme le montrent des photos que nous a envoyées M. Ross, il y a bel et bien des plantes aquatiques qui semblent (de ce qu’on peut en juger sur les images) en parfaite santé, bien que les clichés aient été pris en plein mois de janvier ! Voyons voir ce qui se cache derrière ce petit «miracle»…

Ce milieu humide, précise M. Ross, est situé juste au nord de l’intersection des rues Blanche-Lamontagne et Pierre-Paul-Bertin. Or, signale l’hydrogéologue René Lefebvre, du Centre Eau, Terre et Environnement de l’INRS, c’est-là une zone connue de «résurgence» des eaux souterraines, c’est-à-dire un endroit où l’eau de la nappe phréatique ressort. Comme il n’a pas pu se déplacer sur le terrain pour tout valider, M. Lefebvre souligne que ce n’est qu’une hypothèse. Mais il admet aussi qu’il ne voit pas vraiment d’autres possibilités — et disons que celle-là expliquerait bien des choses. 

À mesure que l’on s’enfonce sous terre, les variations saisonnières de températures deviennent rapidement un lointain écho. Alors que l’air ambiant fluctue allègrement entre -30 °C et + 30 °C d’une saison à l’autre, à seulement 2 mètres de profondeur, la température du sol se maintient généralement dans une fourchette relativement étroite de 5 à 13 °C tout au long de l’année, d’après un document sur la température des sols de Ressources naturelles Canada. Et à partir de 5 à 6 mètres sous terre, elle est essentiellement stable hiver comme été, à 8 °C environ.

Si l’on a bien affaire ici à une résurgence de la nappe phréatique, alors c’est à peu près à cette température de 8 °C que l’eau du «marais miracle» de Beauport sort du sol, dit M. Lefebvre. Cela explique donc pourquoi l’endroit ne gèle jamais, puisque malgré le faible débit, l’eau est continuellement renouvelée. Il est évident qu’avec le temps, elle se refroidit et finit forcément par geler un peu plus en aval — la décharge du marais est un petit ruisseau qui se jette dans la rivière Beauport qui, elle, se couvre de glace en hiver —, mais dans ce marais, ce n’est pas le cas.

D’ailleurs sans être une preuve formelle, le fait qu’on y voit des plantes aquatiques est un autre signe que l’on a affaire à une zone d’émergence d’eau souterraine. «Cela va créer un microclimat très local avec des températures plutôt constantes au-dessus du point de congélation, ce qui permet à la végétation de survivre», dit M. Lefebvre.

Il est difficile d’identifier de quelle espèce de plante aquatique à partir des photos prises par M. Ross, me dit-on à l’Organisme des bassins versants de la capitale. Sous toutes réserves, ses biologistes disent qu’elles semblent être soit des lenticules mineures, soit des hydrocharides grenouillettes. Mais dans les deux cas, la règle générale est que les plantes aquatiques meurent en hiver — l’hydrocharide grenouillette, par exemple, fait normalement des sortes de bourgeons nommés turions, qui coulent au fond et entrent en dormance jusqu’au printemps (https://bit.ly/2TJIoNP).

Mais si l’eau se maintient autour de 8°C à l’année longue, c’est une autre histoire...

Autre source :

- G. P. Williams et  L. W. Gold, Ground Temperatures, Ressources naturelles Canada, 1976, https://bit.ly/2JhBdHD

Science

Des vents plus violents?

SCIENCE AU QUOTIDIEN / «Ça n’est peut-être qu’une impression, mais il me semble que nous avons de plus en plus d’épisodes de grands vents et qu’ils sont de plus en plus violents. Existe-t-il des statistiques à ce sujet? Et les changements climatiques seraient-ils en cause?» demande Jean-Guy Mercier, de Québec.

Oui, il existe des statistiques là-dessus, notamment sur le site d’Environnement Canada. Pour le simple plaisir d’avoir un exemple concret (et parce que j’ai beaucoup de misère à voir un ensemble de données sans potasser dedans), j’ai fait une petite compilation sur la force des vents au mois de février, telle qu’enregistrée à la station météorologique de l’Université Laval cours des 20 dernières années. Comme le montre le graphique, il est bien difficile d’y voir une tendance à la hausse.

Science

L'«écho» des pensionnats autochtones

SCIENCE AU QUOTIDIEN / «En lisant votre article sur l’épigénétique («Darwin contre Lamarck, round 2»), je me demandais si on pouvait faire un lien avec la situation des autochtones, chez qui le diabète fait des ravages. La pauvreté et les changements dans l’alimentation ont-ils pu avoir ce genre d’effets ?», demande Raoul Kanapé, d’Essipit.

La fonction des gènes, c’est de conserver de l’information servant à fabriquer des protéines. Or les gènes sont pratiquement inchangeables : nous ne faisons qu’en hériter, vivre avec tels quels pendant toute notre existence, et les passer à nos enfants. Cependant, tous les gènes ne doivent pas être exprimés également dans toutes nos cellules — les neurones et les cellules du cœur, par exemple, ne font pas du tout le même travail et n’ont donc pas besoin de produire les mêmes protéines. De même, nos gènes peuvent ne pas être bien adaptés à la situation dans laquelle nous naissons, si bien que l’évolution nous a doté de mécanismes collectivement nommés épigénétique, qui vont augmenter ou diminuer (voire réduire au silence complet) l’expression de tels ou tels gènes.

Dans cette chronique de décembre dernier [https://bit.ly/2Rx1SPn], j’abordais un débat qui fait rage actuellement en science : les «ajustements» épigénétiques peuvent-ils être transmis de génération en génération ? La théorie classique en biologie veut que non, les caractères acquis ne se transmettent pas, seuls les gènes sont passés aux enfants. Mais des expériences récentes sur des souris suggèrent que l’épigénétique pourrait «résonner» sur plus d’une génération, et des données historiques vont dans le même sens. On connaît en effet quelques cas documentés de disette, comme celle qui a sévit aux Pays-Bas à l’hiver 1944-45, où les femmes qui étaient enceintes à ce moment-là ou qui le sont devenues peu après ont donné naissance à des enfants qui ont, même à l’âge adulte, fait nettement plus de diabète et d’obésité que la moyenne. Comme si la famine les avait «programmés» pour avoir des métabolismes économes, et qui se sont avérés mal adaptés lorsque l’abondance est revenue.

Est-ce que cela peut expliquer la véritable «épidémie» de diabète qui sévit chez les autochtones, qui en souffrent de 3 à 5 fois plus que la moyenne (les taux dépassent même 25 % dans certaines communautés) ? Il est effectivement possible que ce soit-là un morceau du puzzle, répond Marie-Claude Tremblay, professeure de médecine familiale à l’Université Laval qui mène des recherches sur le diabète et la santé autochtone, notamment.

À cet égard, le mode de vie nomade qui était marqué par des famines occasionnelles est l’élément qui vient le plus spontanément à l’esprit. Mais, rappelle la chercheuse, il y a aussi (et surtout) un événement qui a exposé un grand nombre d’Autochtones à toutes sortes de privations dans un passé assez récent : les pensionnats.

«Il y en a beaucoup qui ont subi de la malnutrition chronique dans les pensionnats, c’est documenté dans les archives et beaucoup de témoignages à la Commission vérité et réconciliation l’ont mentionné. Ça a pu avoir un effet épigénétique», dit Mme Tremblay.

En outre, hormis la malnutrition, toute forme de traumatisme peut avoir des conséquences semblables. «Ces enfants-là étaient arrachés de leur milieu, et on sait à quel point l’attachement est important pour les enfants, illustre-t-elle. Ils n’avaient pas le droit de parler leur langue, on les rasait, on cherchait à effacer l’Indien en eux. Juste ça, c’est un traumatisme. Et on ajoute ça à la malnutrition et aux abus. (…) Ce qu’on sait, c’est que les traumatismes vont avoir un effet sur les niveaux de cortisol [ndlr : l’hormone du stress] et ça, ça va agir sur l’hormone de croissance ressemblant à l’insuline (igf1) et ça va faire en sorte que le métabolisme va changer» d’une manière qui favorise le diabète et l’obésité.»

De là, on peut penser que les mères exposées ont fait plus de diabètes et d’obésité, et que leurs enfants ont été ou sont également plus à risque. Certaines études ont aussi trouvé des gènes (et pas seulement de l’épigénétique) liés à l’obésité qui sont plus fréquents chez les autochtones.

Cependant, insiste Mme Tremblay, le diabète et l’obésité sont des problèmes de santé complexes et l’épigénétique n’est selon toute vraisemblance rien de plus qu’un petit bout du tableau d’ensemble. Au-delà des pensionnats, dit-elle, «le» gros changement que ces populations ont subi fut la colonisation, avec toutes les conséquences qu’elle a eues : sédentarité, diète traditionnelle remplacée par une alimentation de mauvaise qualité, etc. Le surpoids et le diabète ont clairement des racines sociales et économiques, souligne Mme Tremblay, étant plus fréquents chez les gens pauvres et peu instruits. Or ce sont justement là des facteurs de risque qui sont très présents dans bien des Premières Nations : d’après Statistique Canada, moins de la moitié (48 %) des autochtones de 15 ans et plus ont un diplôme d’études secondaires et leur revenu médian est d’environ 18 000 $, contre 28 000 $ pour les allochtones. Et encore, la situation est bien pire dans certaines communautés éloignées.

«Alors ce ne serait pas complet et pas éthique de parler du diabète chez les autochtones sans parler de tout cela», indique Mme Tremblay.

Autres sources :

- Stewart B. Harris et al., «Type 2 Diabetes in Aboriginal People», Canadian Journal of Diabetes, 2013, https://bit.ly/2D1hSnD  

- Kyle Millar et Heather J. Dean, «Developmental Origins of Type 2 Diabetes in Aboriginal Youth in Canada: It Is More Than Diet and Exercise», Journal of Nutrition and Metabolism, 2012, https://bit.ly/2SjvFja

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Miroir, miroir, dis-moi qui est le plus vert

SCIENCE AU QUOTIDIEN / «Est-il vrai qu’un végétarien propriétaire d’un Hummer fait plus pour l’environnement qu’un utilisateur des transports collectifs carnivore?» demande Gilles Lépine.

Voici une belle question, bien courte et en apparence bien simple, dont on se dit à vue de nez qu’elle doit avoir une réponse qui doit elle aussi être simple et courte. Mais en vérité, dans ce genre de comptabilité il y a toujours de longues, longues listes de facteurs dont on doit tenir compte (nombre de kilomètres parcourus par année, nature et procédés de fabrication des aliments, etc.) et qui impliquent de faire de nombreux choix méthodologiques. Si bien que cette question «pourrait avoir des dizaines de réponses différentes selon les hypothèses considérées», dit Réjean Samson, directeur du Centre international de référence en analyse du cycle de vie (CIRAIG) de l’École polytechnique de Montréal.

Alors faisons quand même quelques petits calculs rapides à partir de moyenne nationales, mais gardons à l’esprit que d’un cas particulier à l’autre, les résultats peuvent varier énormément.

Du strict point de vue des gaz à effet de serre (GES), un Hummer brûle autour de 20 litres d’essence par 100 kilomètres parcourus (l/100 km). En supposant 20 000 km parcourus par année et 2,3 kg de CO2 émis par litre d’essence (d’après le site de Ressources naturelles Canada), cela nous donne 9,2 tonnes de GES par année pour notre conducteur de Hummer.

De quelle quantité de CO2 un usager type du transport en commun est-il «responsable» annuellement ? D’après le site du ministère américain des transports, le «plus polluant» des transports en commun est l’autobus, à 0,18 kg de CO2 par km. Alors mettons les choses au pire et supposons 20 000 km de bus par année pour notre passager — c’est vraiment beaucoup car une bonne partie des usagers du transport en commun vivent proche des centres plutôt qu’en banlieue, mais «mettons que», comme on dit. Cela nous fait un total de 3,6 tonnes de CO2 pour l’année, soit 5 de moins que le Hummer. Et c’est sans compter les gaz à effet de serre émis pendant la fabricant des véhicules, mais passons.

Est-ce que le régime végétarien du propriétaire de Hummer est suffisant pour compenser ? Les bienfaits environnementaux de cette diète varient pour la peine d’une étude à l’autre (encore ici, les choix méthodologiques sont multiples). En 2017, une étude parue dans les Environmental Research Letters parlait de 0,8 tonne de CO2 en moins par année pour quelqu’un qui abandonnerait la viande. Mais cela semble peu aux yeux de Dominique Maxime, lui aussi du CIRAIG, qui travaille plutôt avec le chiffre d’environ 1,5 tonne.

«Ce qui fait la différence, dans les régimes carnés, ça va surtout être les viandes rouges, donc les bovins. C’est parce que la fermentation entérique [dans l’intestin des ruminants, qui est particulier] produit du méthane, un GES 30 fois plus puissant que le CO2. Après, il y aussi toute la gestion des fumiers, qui concerne également le porc et qui est elle aussi une source de méthane», explique M. Maxime.

Dans tous les cas, cependant, c’est largement insuffisant pour compenser les émissions du Hummer. Ou du moins, ça l’est avec les hypothèses que l’on a faites — sur les distances parcourues, sur le fait que le propriétaire du Hummer vit en ville et/ou a accès à des transports en commun efficaces, etc. Mais d’un cas précis à l’autre, cela peut changer du tout au tout.

«En analyse de cycle de vie, on essaie de voir les choses en terme de fonctionnalité, explique M. Maxime. Du point de vue de l’alimentation, on mange tous pour les mêmes raisons, soit se maintenir en santé, peu importe les quantités qu’on ingère et si on est végétarien ou pas. Par contre, pour le choix entre le Hummer et le transport en commun, ce n’est pas forcément la même chose. La personne qui se paye Hummer peut le faire parce qu’elle a besoin, pour son travail, d’un véhicule puissant qui fait du tout terrain. Alors là, on ne peut pas comparer avec le transport en commun ou avec un véhicule ordinaire.»

La comparaison devrait alors se faire avec un véhicule qui sert la même «finalité», comme une grosse camionnette, et pas avec le transport en commun.

En outre, il faut souligner que nous n’avons parlé jusqu’ici que de GES, puisque c’est généralement ce type de pollution que l’on a en tête quand il est question de voitures. Or il y en a d’autres qui sont tout aussi importants, mais ils ne sont pas facilement comparables.

«L’agriculture, ça a d’autres impacts sur l’environnement, comme l’eutrophisation, à cause des quantités importantes de fertilisants utilisés qui vont ruisseler [ndlr : et une fois dans les lacs, vont favoriser la croissance de cyanobactérie et éventuellement «étouffer» les plans d’eau]», dit M. Maxime. Produire de la viande implique de produire des plantes fourragères, et comme la conversion de la matière végétale en matière animale n’est pas très efficace (selon le type d’animal et de fourrage, il faut de 2 à 7 kg de végétaux pour produire 1 kg de viande), manger de la viande implique de cultiver de plus grandes superficies, et donc de contribuer davantage à l’eutrophisation des cours d’eau.

La fabrication et l’usage des voitures n’ont pas ces inconvénients. Mais combien de tonnes de GES «vaut» une éclosion d’algues bleues ? Combien de de CO2 doit-on sauver pour compenser 1 hectare de forêt transformée en champs ? On compare des pommes et des oranges, ici.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Nos maisons ont-elles «froid» quand il vente?

SCIENCE AU QUOTIDIEN / «Il me semble déjà avoir lu quelque part qu'Hydro-Québec tient compte du vent dans ses prévisions de consommation d'électricité. Est-ce vrai qu’il y a un «refroidissement éolien» pour les maisons?», demande Pierre Larouche, de Mont-Joli.

Oui, il y a une sorte de facteur éolien pour la consommation d’électricité en hiver, et il est tout à fait vrai qu’Hydro Québec en tient compte dans ses prévisions de demande. C’est d’autant plus important que les plus fortes pointes de consommation d’électricité au Québec surviennent justement les matins de grand froid, alors il vaut mieux en tenir compte. (Notons tout de suite que j’écris «une sorte de facteur éolien» parce que le mécanisme n’est pas le même que pour la fameuse «température ressentie» dont on parle dans les bulletins de météo. J’y reviens.)

«Effectivement, dans le passé on a pu constater une grosse différence par grand froid, selon qu’il vente ou non, dit Olivier Milon, chargé d’équipe en prévision de la demande chez Hydro Québec. On a des règles d’approximation pour l’estimer. (…) Si on a une température de -20°C et que le vent passe de 10 à 15 km/h, on va observer une charge supplémentaire d’environ 240 mégawatts à l’échelle du Québec. C’est l’équivalent d’une grosse usine qui ouvrirait son four, par exemple.»

Le vent peut donc faire une bonne différence. Mais c’est tout de même la température qui demeure le facteur météo dominant, dans toute cette histoire. «Si on regarde l’effet d’une variation de 1 °C mesuré à l’aéroport de Dorval, si on passe de -20 à -21 °C par exemple, ça peut faire une différence allant jusqu’à 480 mégawatts», dit M. Milon.

Pour remettre tout cela en perspective, rappelons que les pointes de demande par grands froids, lors des pires moments, peuvent atteindre autour de 38 000 MW. C’est donc dire que, tout seul, 1°C ou 5 km/h de vent ne pousse pas beaucoup la demande vers le haut, mais ensemble ces deux facteurs peuvent finir par «peser lourd» dans la demande d’électricité : entre une température de -5°C sans vent et une journée à -25 avec des vents de 30 km/h, l’écart est de l’ordre de 10 000 MW.

Ce qui fait qu’à température égale, nos maisons coûtent plus cher à chauffer quand il vente, c’est qu’elles ne sont pas parfaitement hermétiques. Il y a toujours des échanges d’air entre l’intérieur et l’extérieur — heureusement, d’ailleurs — et le vent, en s’infiltrant par toutes les ouvertures possibles, va accélérer ces échanges-là, explique M. Milon. C’est un mécanisme assez différent de celui qui empire la sensation de froid sur la peau quand il vente. Et on y arrive à l’instant...

* * * * *

«Est-ce que le refroidissement éolien (ou la température ressentie) dont on parle tant lors des bulletins de météo a un quelconque fondement scientifique ?», demande Jean-Pierre Gagnon, de Chambly.

Oui, la «température ressentie» a un fondement scientifique, malgré son nom qui suggère la subjectivité. L’idée de base, c’est que l’air ne transmet pas bien la chaleur — en fait, c’est plutôt un isolant thermique. À cause de cela, il se forme toujours une couche d’air autour de tout objet qui est plus chaud que l’air ambiant, ce qui en ralentit le refroidissement. Mais quand il vente, les bourrasques dissipent cette couche d’air plus chaud, et l’objet perd donc sa chaleur plus rapidement.

Historiquement, ce sont deux explorateurs américains, Charles Passel et Paul Siple, qui ont étudié et quantifié ce phénomène les premiers. Lors d’un séjour en Antarctique, ils ont accroché des cylindres de plastiques remplis d’eau à l’extérieur de leur campement, en notant le temps que l’eau mettait à geler, de même que la température et la force du vent. À partir de là, ils ont accouché d’une formule mathématique qui exprimait la température qu’il devrait faire sans vent pour que l’eau gèle à la même vitesse.

Le résultat était très imparfait, disons-le. La formule surestimait grandement l’effet du vent par temps froid — à -15°C et des bourrasques à 50 km/h, elle indiquait un équivalent de -41°C alors que la version actuelle donnerait -29°C — et les bouteilles de plastique de Siple et Passel étaient une base un brin boiteuse pour déduire une impression de froid sur la peau.

Pour y remédier, Environnement Canada et la National Oceanic and Atmospheric Administration (États-Unis) ont fini par mener une expérience particulière. Ils ont fait marcher 12 personnes sur un tapis roulant dans une soufflerie réfrigérée pendant 30 minutes, en faisant varier la température (+10, 0 et -10 °C) et la vitesse du vent (2, 5 et 8 mètres par seconde). Tout au long de ce manège, la températures corporelle et du visage des marcheurs était mesurée. C’est sur ces résultats qu’une nouvelle formule plus précise, utilisée depuis 2001, a été formulée. Notons qu’elle tient aussi compte du fait que le vent à 1,5 mètre du sol est en général plus faible qu’à 10 mètres, où les stations météorologiques le mesurent.

Sources :

Francis Massen. The NewWindchill Formula: A Short Explanation, Station météorologique du Lycée classique de Diekirch, 2001. https://bit.ly/2DjuQyt

SA. Wind Chill Calculator, CSGNetwork, 2011. https://bit.ly/1xwv0te

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Fini, le réchauffement?

SCIENCE AU QUOTIDIEN / «Un expert réviseur du GIEC, François Gervais, physicien et professeur émérite de l’Université de Tours en France, souligne une contradiction entre deux rapports du GIEC sur le réchauffement. L'hypothèse officielle retenue est une hausse de 0,2 °C par décennie (en réalité dans une fourchette de 0,1 à 0,3 °C) alors qu'un autre rapport di GIEC (AR5) montre une hausse de 0,04 °C par décennie entre 1998 et 2012, soit 5 fois moins. Je cite François Gervais : «cette hausse infinitésimale se prolonge depuis 20 ans aux fluctuations naturelles près.» Alors qui dit vrai?», demande Jean-Yves Uhel, de Sainte-Foy.

Il s’agit ici d’une entrevue que M. Gervais a accordée à la revue française Valeurs actuelles en octobre dernier, dans la foulée de la publication de son livre L’urgence climatique est un leurre. Dans cet ouvrage, il accuse le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC, relié à l’ONU) et la climatologie en général d’être inutilement alarmistes.

Il y a plusieurs choses à dire à ce sujet. D’abord, sur le fond, il n’y a absolument aucune contradiction entre la soi-disant «hypothèse officielle» de +0,2 °C par décennie et le rythme observé entre 1998 et 2012. La température moyenne qu’il fait sur Terre connaît des variations naturelles d’une année à l’autre, pour une foule de raisons — le cycle El Nino / La Nina, par exemple. Si bien que si l’on ne retient que des sous-périodes assez courtes, on peut en trouver qui semblent contredire la tendance générale. Mais par définition, c’est en regardant l’ensemble des données que l’on juge de la valeur d’une tendance générale, pas en découpant une petite séquence et en écartant le reste de la série.

L’exercice auquel se livre M. Gervais est d’autant plus douteux, d’ailleurs, que la «pause» du réchauffement à laquelle il fait référence est terminée depuis plusieurs années. Le graphique ci-bas montre l’«anomalie» de température (l’«écart» d’année en année par rapport à la moyenne de 1951-1980) depuis la fin du XIXe siècle. Les données viennent du site de la NASA. Il est vrai, comme le dit M. Gervais, que cette anomalie n’a pratiquement pas bougé entre 1998 (+0,62 °C) et 2012 (+0,61 °C). Mais l’augmentation de température a repris en 2013, l’anomalie a dépassé les 0,7 °C en 2014 et elle a oscillé autour de 0,9 °C de 2015 à 2017. Il est assez incongru, pour dire le moins, de laisser cela «hors de l’image»...

En outre, présenter le rythme de 0,2 °C par décennie comme une «hypothèse officielle» laisse entendre qu’il s’agit d’une simple projection théorique — j’imagine que ce n’était pas l’intention de M. Uhel, je tiens à le souligner. En réalité, ce rythme-là correspond aux observations empiriques, en particulier le fait que le réchauffement s’est accéléré au cours du XXe siècle. Si l’on regarde de nouveau notre graphique, on constate que l’anomalie de température est passée d’entre - 0,2 et - 0,3 °C à la fin du XIXe siècle à environ +0,7 °C dans les années 2010 — un rythme d’environ 0,08 °C par décennie. Si on part des années 50 (autour de -0,1 °C), le rythme grimpe à 0,15 °C par décennie. Et si on prend le tournant des années 80 (+ 0,0 °C) comme point de départ, on obtient environ 0,25 °C par décennie. Alors d’un point de vue factuel, cette «hypothèse officielle» ne me semble ni particulièrement hypothétique, ni très alarmiste.

Il faut dire ici, sur la forme, que M. Gervais n’en est pas à son premier découpage du genre. Dans un autre livre climatosceptique paru en 2013, L’innocence du carbone, il avait plusieurs fois cité des séquences très partielles et soigneusement choisies pour cadrer dans sa trame narrative. Ces «contre-vérités» avaient d’ailleurs été vigoureusement dénoncées par le climatologue français François-Marie Bréon dans Le Monde (https://lemde.fr/2AeRRB2).

Rappelons aussi que, tout scientifique qu’il soit, M. Gervais n’est pas lui-même climatologue. Ses travaux de recherche ont surtout porté sur l’électromagnétisme et la physique des matériaux à l’Université de Tours, où il a longtemps dirigé le Laboratoire d’électrodynamique des matériaux avancés. Ce n’est qu’après sa retraite en 2012, apparemment, qu’il a commencé à publier sur le climat. À cet égard, le titre d’«expert réviseur du GIEC» qu’il s’attribue ne veut pas dire grand-chose puisque n’importe quel universitaire peut envoyer ses commentaires aux GIEC et son nom figurera ensuite dans sa liste des «experts réviseurs».

Alors à la question de savoir «qui dit vrai», il me semble manifeste que l’avis des véritables experts, les climatologues (dont ceux du GIEC), est largement préférable à celui de M. Gervais, sauf tout le respect que je lui dois.

Science

La Terre n'arrêtera pas de tourner, mais...

SCIENCE AU QUOTIDIEN / «Comme on voit toujours la même face de la lune, certains disent que c’est parce qu’elle ne tourne pas sur elle-même. Si c’est vrai, il s’agirait d’une rare exception parce qu’à ma connaissance tous les astres tournent sur eux mêmes, non ? Et j’ai aussi lu quelque part que la vitesse de rotation de la Terre ralentissait petit à petit, si bien que dans quelques millions d’années, elle s’arrêterait complètement et que sa face constamment exposée au Soleil serait brulée tandis que l’autre serait gelée. Qu’en est-il ?», demande Ghislain Gauthier.

Si la Lune ne tournait pas sur elle-même, il s’agirait en effet d’une exception fabuleusement rare. Les astres — qu’il s’agisse de planètes, de lunes ou d’étoiles — se forment lorsque des nuages de gaz et/ou de poussières flottant dans l’espace finissent par s’effondrer sous l’effet de leur propre gravité. Ces nuages vont alors tourner sur eux-mêmes, puis former un disque qui tourne sur lui-même, puis le disque va petit à petit se transformer en sphère. Et le «produit final», la planète, conserve cette rotation.

J’imagine que l’Univers est trop vaste pour qu’on puisse dire qu’il n’existe absolument aucun astre sans rotation. Mais à partir de ce qu’on sait des étoiles, planètes, lunes et astéroïdes que l’on a observés jusqu’à maintenant, la règle est que tous les objets ont une rotation. Et notre Lune n’y fait pas exception.

On peut avoir l’impression contraire parce qu’on en voit toujours la même face, mais c’est simplement parce que sa rotation est synchronisée avec sa «révolution», comme disent les physiciens : elle prend le même temps pour faire un tour sur elle-même (environ 28 jours) qu’elle n’en met pour faire le tour de la Terre (28 jours aussi). Ce n’est pas un hasard s’il en est ainsi — et l’explication nous permettra au passage de comprendre pourquoi il est vrai que la rotation terrestre ralentit peu à peu.

La Terre et la Lune sont d’énormes masses assez rapprochées (à l’échelle cosmique, s’entend) et qui exercent une forte gravité l’une sur l’autre. Cette gravité, bien sûr, explique pourquoi la Lune continue de tourner autour de notre planète, mais elle fait un petit quelque chose de plus : des effets de marée. Sur Terre, on les voit avec le niveau de la mer, mais la gravité lunaire ne fait pas qu’attirer des masses d’eau. La croûte terrestre se soulève également d’environ 30 centimètres au passage de la Lune, ce qui crée une sorte de «bourrelet» de matière qui se déplace au rythme de la rotation de la Terre et de la révolution lunaire.

Maintenant, il y a deux choses à souligner à propos de ce «bourrelet». La première, c’est qu’il représente un surplus de masse, qui exerce donc un surplus de force gravitationnelle. Comparé à la totalité de la gravité terrestre, ce n’est pas grand-chose, mais cela reste une force qui agit. La seconde, c’est que ce bourrelet est toujours légèrement décalé, légèrement en avance par rapport à la Lune parce que la Terre tourne sur elle-même en 24 heures, alors que la Lune met 28 jours à compléter un tour de la Terre.

Et ce dernier point est capital : comme l’orbite lunaire va dans le même sens que la rotation terrestre, cela signifie que le petit surplus de force gravitationnelle du bourrelet fait accélérer la Lune.

Compte tenu des distances et des masses impliquées, l’accélération est infinitésimale. Pour vous donner une idée, sachez que plus un satellite file rapidement sur sa course orbitale, plus il s’éloigne de sa planète — et l’accélération dont on parle ici fait s’éloigner la Lune au rythme de… 3 cm par année. C’est comparable à la vitesse à laquelle poussent les ongles, alors la distance Terre-Lune est d’environ 380 000 km. Presque rien, quoi.

L’accélération de la Lune n’est cependant qu’un des deux côtés d’une même médaille. Car ultimement, d’où vient l’énergie qu’il faut pour la faire orbiter plus vite ? De la rotation terrestre, sur laquelle notre satellite naturel agit comme une sorte d’ancre. À mesure que la Lune accélère, la Terre tourne de moins en moins vite sur elle-même. Encore une fois, c’est infinitésimal, mais c’est suffisant pour faire une différence notable sur de longues périodes.

Des géologues ont d’ailleurs été capables d’en prendre des mesures très concrètes. On connaît en effet des roches qui se sont formées par l’accumulation de sédiments dans des circonstances telles que l’on peut encore discerner, même des millions d’années plus tard, l’effet de chaque marée individuelle. En analysant les caractéristiques des couches de sédiments que chaque cycle de marée a laissé derrière lui dans des roches de l’Australie, un chercheur a pu estimer que chaque journée durait environ 22 heures il y a 620 millions d’années — et même autour de 18 heures il y a 2,45 milliards d’années.

La Terre a eu le même genre d’effet de marée sur la Lune, et en a ralenti la rotation jusqu’à la synchroniser avec sa révoltuion. La différence est que comme la Terre est beaucoup plus massive, elle exerce des forces plus grandes sur la Lune, et son inertie (sa résistance aux forces exercées par la Lune) est plus importante. C’est pourquoi la Terre n’a pas encore synchronisé sa rotation avec l’orbite lunaire. Cela finira éventuellement par arriver, mais il faudra être patient : on estime que cela prendra encore… 50 milliards d’années.

Pour en savoir plus :

- George E. Williams, «Geological Constrait on the Precambrian History of Earth’s Rotation and the Moon’s Orbit», Reviews of Geophysics, 2000, https://bit.ly/2BW1q8P

- Fraser Cain, «When Will Earth Lock to the Moon ?», Universe Today, 2016, https://bit.ly/2AZupaf

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.