Science

Psychologie: toutes les couleurs d'un carton rouge

BLOGUE / La question de départ était pourtant fort simple : est-ce que les joueurs de soccer «de couleur» sont plus susceptibles de recevoir des cartons rouges que les joueurs «blancs» ou à la peau plus pâle ? Cette question, de même qu'un seul et même ensemble de données, ont été envoyés à une trentaine d'équipes de recherche différentes en psychologie et... disons que les choses ont arrêté d'être simples pas mal tout de suite après le point d'interrogation.

Et c'était d'ailleurs là l'objectif avoué de l'exercice : pas de déterminer s'il y a bel et bien discrimination à l'égard des joueurs de couleur, mais de voir comment différentes équipes allaient aborder la question et les données. Quels choix méthodologiques chacune ferait et, surtout, quelle incidence cela aurait-il sur leur réponse finale. Le fascinant article qui en a été tiré est paru récemment dans Empirical Article et est disponible ici, en libre accès (yé !).

Vingt-neuf équipes de chercheurs se sont prêté au jeu et ont donc toutes reçu exactement les mêmes données, soit des informations sur tous les footballeurs ayant joué la campagne 2012-2013 dans les ligues française, anglaise, allemande et espagnols. Pour chaque joueur, une foule de variables étaient fournies (en plus du nombre de cartons rouges), comme la taille, le nombre de matches disputés, le teint de peau sur une échelle de 1 (très pâle) à 5 (très foncé), le nombre de cartons rouges/jaunes reçus en carrière (comme indicateur de sa réputation, ce qui peut influencer les arbitres), etc.

Et les résultats ? Si c'est la discrimination qui vous intéresse, sachez que les 29 équipes participantes ont en moyenne établi que les joueurs de couleur recevaient environ 30 % (ou 1,3 fois) plus de cartons rouges que les autres. Si c'est la métho qui vous intéresse : d'une équipe de recherche à l'autre, le rapport de cote (odds ratio) a varié de 0,89 (les joueurs de couleurs recevaient 11 % moins de cartons que les autres, mais l'écart n'était pas statistiquement significatif) à 2,93 (presque 3 fois plus de cartons pour les joueurs de couleur). Vingt équipes ont trouvé des indices statistiquement significatifs de discrimination, et neuf n'ont pas trouvé de différence significative.

Et tout ça, répétons-le, à partir des mêmes chiffres, des mêmes données de départ. Comment est-ce possible ? C'est que, exposent les auteurs de l'article, les équipes étaient libres de procéder comme elle l'entendait, et que même pour une question presque brutalement directe comme celle-là, il y a une foule de choix méthodologiques à faire. Certaines options sont meilleures que d'autres, mais ce n'est pas toujours facile à discerner — et parfois tout simplement impossible parce que chaque choix vient avec des avantages et des inconvénients.

Par exemple, les teints de peau ont été «cotés» de 1 à 5, mais dans bien des pays, les métisses sont culturellement considérés comme «noirs» — bref, vous êtes «blanc pur» ou «de couleur», mais il n'y a pas vraiment de degrés entre les deux. Alors qu'est-ce que vous faites avec les teints de peau de 1 à 5 ? Vous laissez la gradation telle quelle, au risque de gauchir le résultat final, ou vous décrétez (arbitrairement) que les cotes 1 et 2 sont «blancs» et les 3-5 sont «de couleur» ?

«Comment vous approchez le fait que certains arbitres donnent plus de cartons que d'autres, demandent les auteurs de l'article ? Tenteriez-vous de contrôler pour l'expérience de chaque arbitre ? (...) Est-ce que vous voudriez voir si les cartons rouges sont plus fréquents dans certaines ligues, et si la proportion de joueurs de couleur est la même dans toutes les ligues et à toutes les positions ?»

Ce sont toutes des décisions qui peuvent avoir des effets plus ou moins gros sur le résultat final et dont l'effet cumulatif peut être considérable — et on ne parle pas ici des choix d'«outils» statistiques. Ce que le papier d'Empirical Article fait ressortir, il me semble, c'est à quel point toute (ou presque toute) statistique sociale est le résultat d'une foule de facteurs toujours difficiles à contrôler, et que cela implique forcément une longue de liste de choix méthodologiques. Ce papier-là le fait d'une manière remarquablement rigoureuse et scientifique, et pourrait sans doute, d'ailleurs, étendre ses conclusions à nombre d'autres disciplines que la psychologie, qui ont elle aussi des problèmes de reproductibilité des résultats.

Cela souligne aussi au passage l'importance de la transparence et du partage des données en science. Pas pour rien que l'article a été décrit comme «un des plus importants de ce siècle» et que nombre de chercheurs, sur les réseaux sociaux, ont invité tous les profs de stats à le présenter dans leurs cours.

Science

Vivre de nectar et de... glyphosate?

BLOGUE / D'un point de vue médiatique, parler de glyphosate et d'abeilles dans un même article est l'équivalent de tremper un cube de TNT dans de la nitroglycérine : chacun est déjà très explosif séparément, alors une fois ensemble...

C'est en plein ce qu'ont fait trois chercheurs de l'Université du Texas pour voir si l'herbicide le plus utilisé du monde affectait la santé des butineuses, et il est arrivé ce qui devait arriver : une couverture médiatique mondiale. En «temps média», l'étude disponible ici date déjà un peu (fin de septembre), mais sa parution pendant la campagne électorale ne m'a pas laissé le temps d'en parler et, comme les articles de presse ont pratiquement tous laissé entendre que la cause était entendue, je pense qu'il vaut la peine d'y revenir parce que la réalité me semble un peu plus nuancée. On pourra en discuter.

Le glyphosate est l'ingrédient actif du Round-Up, une formulation mise au point par Monsanto (notons que ses brevets sont échus maintenant et que bien d'autres entreprises en fabriquent). Il tue les plantes en neutralisant un enzyme qui leur est absolument essentiel mais, comme cet enzyme n'existe pas chez les animaux, la règle générale (et bien des études le confirment) est que sa toxicité est plutôt faible pour les animaux. Ce qui est, bien sûr, un grand avantage.

Cependant, s'est dit le biologiste de UofT Erick Motta avec deux collègues, on sait que le glyphosate est néfaste pour diverses bactéries, et on sait que certaines d'entre elles sont naturellement présentes dans l'intestin des abeilles. Puisque les insectes ont autant besoin que nous de «bonnes bactéries», cela (re)posait la question de la toxicité (indirecte cette fois-ci) de cet herbicide pour nos faiseuses de miel. Le trio a donc prélevé plus de 1800 abeilles dans des ruches pour les soumettre à trois régimes différents pendant 5 jours : sirop de sucre sans glyphosate, du sirop avec 5 milligrammes par litre de glyphosate, et du sirop avec 10 mg/l. Puis, après les avoir marquées de différentes couleurs pour les reconnaître, ils les ont réintroduites dans leurs ruches. Enfin, au bout de 3 jours dans la ruche, ils ont récupérer les abeilles (autant que faire se pouvait, on y revient) et ont analysé leur microbiote.

Ils ont constaté que comparé au groupe-contrôle (aucun glyphosate), le groupe nourri avec du glyphosate à 5 mg/l montrait des changements substantiels dans son microbiote. Celui-ci était moins diversifié et contenait nettement moins de bactéries au total.

Cependant, et c'est un «reproche» que plusieurs ont fait à cette étude, les abeilles nourries à 10 mg/l n'ont pas, ou si peu, montré de signe que leur microbiote avait été dérangé par l'herbicide, même si elles en avaient consommé deux fois plus. M. Motta et ses collègues admettent dans l'article que c'est «inexpliqué», mais ils indiquent que moins de 20 % des plus de 1800 abeilles réintroduites dans les ruches après «traitement» ont pu être récupérées, les autres étant mortes ou ayant été rejetées par la ruche (ça arrive dans ce genre d'expérience). Il est donc possible que la mortalité ait été plus grande chez ce groupe : une partie des effets du glyphosate auraient alors échappé aux mesures puisque les abeilles seraient mortes loin de la ruche.

La question est donc : est-ce que plus d'abeilles du groupe contrôle ont été récupérées, comparé à celles qui ont eu du glyphosate ? Ce n'est pas clair dans l'article, mais la réponse est «non, sauf que...»

Environnement

Vérification faite: pas de lien entre tornade et réchauffement

L'AFFIRMATION: «Si des gens doutent de l’existence réelle et concrète des changements climatiques, voilà», a affirmé en fin de semaine le chef libéral Philippe Couillard, en montrant du doigt les dégâts faits par la tornade à Gatineau.

«Avec les changements climatiques, c’est clair qu’il va y en avoir de plus en plus [d’événements climatiques extrêmes comme cette tornade]», a ajouté le chef caquiste François Legault.

«Un événement catastrophique comme celui-là nous rappelle qu’il y a un danger climatique dans lequel nous sommes rentrés», a indiqué le chef péquiste Jean-François Lisée.

La co-porte-parole de Québec solidaire Manon Massé a pour sa part réagi à cette tornade en disant que «des programmes de mitigation doivent être adaptés pour faire face aux changements climatiques».

Bref, tous les chefs de parti affirment que les tornades seront de plus en plus fréquentes à mesure que la planète se réchauffera. Alors voyons voir…

LES FAITS

Si l’on regarde le nombre de tornades qui ont été rapportées chaque année depuis 100 ans, la tendance à la hausse apparaît forte et évidente, à première vue. Le hic, cependant, est que cette augmentation est considérée comme très peu crédible par une grande majorité de scientifiques. Les tornades, en effet, sont des phénomènes très localisés, et donc faciles à «manquer» : bon nombre sont survenues dans des régions sauvages, dans le passé, et n’ont jamais été comptabilisées. Or, comme les régions les plus propices aux tornades sont beaucoup plus peuplées maintenant qu’il y a un siècle, tout indique qu’il n’y a pas plus de tornades qu’avant, mais qu’il y en a juste moins qui passent inaperçues. C’est encore plus vrai si l’on tient compte des techniques de détection moderne (au radar).

Le graphique ci-contre, tiré du site de la National Oceanic and Atmospheric Administration (bit.ly/2bVcGEA), montre le nombre annuel de tornades survenues aux États-Unis (l’endroit dans le monde où il y en a le plus, et de loin) depuis les années 50. On y voit tout de suite qu’il n’y a aucune tendance à la hausse, et notons que c’est la même chose si l’on se concentre uniquement sur les tornades les plus fortes.

Sciences

L'océan qui est mort au pied des Appalaches

SCIENCE AU QUOTIDIEN / «Lors d’un récent séjour à Berthier-sur-mer, quelle ne fut pas ma surprise d’observer des dépôts calcaires sur le sol, comme s’ils étaient orientés verticalement et non horizontalement. Généralement, je m’attendrais à voir de telles stratifications une par-dessus l’autre en regardant une paroi, comme j’en voyais dans mon enfance — j’ai grandi à proximité du fleuve aux Grondines. Comment les dépôts ont-ils pu s’accumuler de cette manière? Ont-ils été retournés par un cataclysme?» demande Daniel Guilbault, de Saint-Augustin-de-Desmaures.

Cela peut effectivement paraître étonnant puisque les roches que l’on voit à Berthier-sur-Mer — comme dans toutes les Appalaches — sont des roches dites sédimentaires: elles se sont formées par l’accumulation de débris divers (sable, coquilles, cadavres, algues mortes, etc.) au fond de l’océan, et ces sédiments ont par la suite été transformés en roche par la pression continue de l’eau. Alors forcément, les couches que l’on voit sur la photo ci-bas que m’a envoyée M. Guilbault se sont à l’origine empilées les unes sur les autres, pas une à côté de l’autre. Que s’est-il donc passé depuis?

Les roches des environs de Berthier-sur-Mer font partie d’une formation géologique nommée groupe de Saint-Roch, indique le chercheur en géologie de l’Université Laval Georges Beaudoin. Il s’agit de roches qui se sont formées il y a environ 500 millions d’années. À l’époque, note M. Beaudoin, les Appalaches n’existaient pas encore, et c’est justement ce qui s’est passé par la suite qui explique pourquoi les couches sont superposées autour de Grondines et juxtaposées à Berthier.

Comme on l’a déjà vu dans cette rubrique, les continents sont faits de plaques tectoniques, que l’on peut se représenter comme des espèces d’immenses «radeau» de pierre qui flottent sur la roche en fusion située sous la croûte terrestre, à plusieurs dizaines de kilomètres de profondeur. Comme il y a des mouvements dans cette roche en fusion, cela fait dériver les plaques tectoniques. Très lentement, soit, mais sur des centaines de millions d’années, les changements sont spectaculaires.

Ainsi, les roches de Berthier se sont formées au fond d’un océan ancien, Iapetus, qui était bordé (entre autres) par deux anciens continents nommés Laurentia et Baltica. Le premier, comme son nom l’indique, est grosso modo la plaque du Bouclier canadien avec les Laurentides actuelles, et le second forme maintenant le nord-ouest de l’Europe. Et quand on vous dit que la tectonique des plaques peut être spectaculaire, voyez plutôt: il y a un peu plus de 500 millions d’années, ces continents étaient situés sous les tropiques (!) de l’hémisphère sud (!!), c’est vous dire comme ils ont dérivés…

Sur une période d’environ 150 millions d’années, lit-on sur le site du Parc national de Miguasha, les continents qui entouraient Iapetus se sont rapprochés jusqu’à refermer complètement l’océan. Dans le processus, Laurentia et Baltica sont entrés en «collision», et les fonds marins qui gisaient entre les deux s’en sont trouvés (très) déformés, jusqu’à en relever hors de l’eau. C’est de cette manière que les Appalaches sont «nées», ou du moins ont «commencé à naître», puisque cette chaîne de montagnes s’est formée en plus d’une étape — mais c’est une autre histoire.

L’essentiel à retenir, ici, est qu’au cours de ce processus, certaines couches sédimentaires qui s’étaient jusque là tenue bien sagement à l’horizontale ont été soulevées jusqu’à en devenir verticale. C’est ce qu’a observé M. Guilbault à Berthier-sur-Mer.

En ce qui concerne la couleur des couches sur la photo (ci-bas), M. Beaudoin indique que «dans les strates rouges, on a simplement des couches qui se sont formées dans de l’eau plus oxydées ou qui se sont oxydées par la suite, et les couches plus grises semblent être des calcaires [moins riches en fer] ou des grès [ndlr: une roche faite de sable comprimé]».

Maintenant, cela peut sembler étonnant, mais ces redressements de roches sédimentaires ne sont pas particulièrement rares, du moins pas aussi exceptionnels qu’on serait tenté le penser a priori. Il suffit simplement pour s’en convaincre de prendre l’exemple du Rocher Percé: si l’on regarde attentivement la photo ci-haut, on se rend vite compte que le plus célèbre caillou du Québec est fait d’une série de strates orientées à la verticale. Ces couches se sont elles aussi formées à l’horizontale dans le fond d’un océan avant que la tectonique des plaques ne les soulève et ne les ré-incline à la verticale. Attention, avertit M. Beaudoin, ça ne s’est pas passé en même temps que la roche autour de Berthier-sur-Mer: la pierre du Rocher Percé est plus récente par plusieurs dizaines de millions d’années et s’est soulevée plus tard (ce fut une autre «étape» de la naissance des Appalaches). Mais le principe est le même et cela montre qu’il est relativement commun de voir des roches sédimentaires dont les couches sont orientées à la verticale.

Enfin, explique M. Beaudoin, les strates de la roche autour de Grondines sont à l’horizontale parce qu’elles font partie d’un autre ensemble géologique, les basses terres du Saint-Laurent. Ce sont elles aussi des roches sédimentaires, mais elles n’ont presque pas subi de déformations. «Le front de déformation [en ce qui concerne la formation des Appalaches], c’est ce qu’on appelle la faille de Logan», dit-il. C’est cette fameuse faille qui remonte le Golfe Saint-Laurent et bifurque vers le sud en amont de Québec.

Les roches sédimentaires au sud de cette faille ont été soulevées et peuvent être à la verticale dans certains secteurs (mais c’est loin d’être le cas partout); celles des basses terres, comme à Grondines, se trouvent au nord de la faille Logan n’ont pas subi de «cataclysme» et reposent toujours à l’horizontale.

Science

Cet étrange délai à la télévision...

SCIENCE AU QUOTIDIEN / «J’aimerais que l’on m’explique comment il se fait qu’il y a souvent un délai, parfois important, dans les échanges au téléjournal lorsque le chef d’antenne parle à un journaliste qui n’est pas en studio. Si on peut parler et se comprendre instantanément au téléphone, il doit bien y avoir moyen d’éliminer cet agaçant délai, non ?» demande Yvan Dion, de La Malbaie.

Il est effectivement bien étonnant qu’en cette ère de connexion ultra-haute-vitesse, une technologie datant du même millénaire que le Moyen Âge transmette la voix plus rapidement (enfin, parfois) que le Web. Mais c’est pourtant bien ce qui se passe, du moins à l’occasion.

«En gros, c’est ce qu’on appelle la latence dans les réseaux, et elle peut venir de quatre sources différentes», explique Florent Parent, professionnel de recherche en informatique à l’Université Laval qui s’occupe également du réseau reliant les superordinateurs de Calcul Canada.

Le premier type de délai et sans doute le plus simple à comprendre, dit-il, est la propagation du signal. Même dans un réseau de fibre optique ou un réseau sans fil où les signaux voyagent essentiellement à la vitesse de la lumière, soit près de 300 000 kilomètres par seconde, cela peut faire une différence dans certaines circonstances.

«Par exemple, illustre l’informaticien, dans le réseau qui relie les universités [ndlr : la recherche implique souvent l’envoi d’énormes fichiers de données], si je me branche ici à l’Université Laval et que j’envoie un ping [ndlr : un petit signal qui fait un aller-retour afin de vérifier l’état d’une connection] à Montréal, on parle de 7 millisecondes (ms) de temps de retour. Ce n’est pas assez pour être perceptible dans une conversation puisque en bas de 100 ms, on ne s’en rend pas vraiment compte. Dans le cas des conversations à la télé, il doit y avoir d’autres sources de délai. Et une hypothèse qui me vient en tête, c’est que peut-être que quand les journalistes sont sur le terrain, ils utilisent un réseau sans-fil, et là la communication se fait par satellite. Et ça, ça va allonger le délai de propagation.»

Souvent, en effet, les satellites de télécommunication sont placés sur des orbites géostationnaires, ce qui signifie qu’ils mettent exactement 24 heures à faire le tour de la planète — par conséquent, ils demeurent toujours au-dessus du même point sur Terre, d’où le nom de géostationnaire. Or ces orbites sont situés à une altitude de près de 36 000 km, si bien que même à la vitesse de la lumière, l’aller-retour prend (36 000 km x 2) ÷ 300 000 km/s = 240 millisecondes. Dans le cas d’une conversation au téléjournal qui passerait par ce genre de satellite, c’est un délai suffisamment long pour qu’on s’en rende compte.

Mais il peut aussi y avoir autre chose, poursuit M. Parent : le délai de traitement. «C’est bien beau la vitesse de la lumière, dit-il, mais il faut compter aussi le fait qu’on a des appareil qui reçoivent la voix, qui la convertissent en numérique, (…et) il y a un traitement de ça et une compression qui vont être faites, ça va ensuite être mis dans des sortes de «paquets» sur des commutateurs [un appareil qui est le point de convergence d’un réseau, ndlr], et souvent il va y avoir une redondance qui va être ajoutée au cas où des paquets seraient perdus, C’est ensuite envoyé, et chaque commutateur qui se trouve dans le chemin, entre le point de départ et le point d’arriver, doit traiter ça, et tout ça  prend du temps, alors ça va ajouter un délai de traitement.»

Ces délais sont généralement minimes, mis pas toujours, et ils s’ajoutent aux autres.

Une troisième source de délai est la «mise en file d’attente», indique notre informaticien. «Ça, on ne peut pas vraiment l’estimer d’avance parce que ça dépend de la quantité de trafic sur le réseau. Quand tout va bien, le délai à peu près nul. Mais s’il y a un gros événement où beaucoup le monde veut des données en même temps (…) où s’il y a un sursaut ponctuel (burst, en anglais) d’activités sur le réseau, alors tout ne peut pas être traité instantanément, alors le système fait une file d’attente. Habituellement, c’est traité selon le principe du premier arrivé, premier sorti, mais il peut y avoir des priorités.»

Enfin, le dernier type de délai est celui de la transmission, qui dépend de la qualité de la carte réseau d’un ordinateur, explique M. Parent. Les meilleures disponibles permettent de transmettre autour de 100 gigabits (et même plus) par seconde, mais une carte de mauvaise qualité peut introduire des délais dans la communication.

En plus de la carte, le protocole de transmission peut aussi faire une différence. «Le protocole internet le plus utilisé et que les gens connaissent le plus, c’est le fameux TCP/IP. Ce qu’on sait moins, c’est que dans ce protocole-là, à chaque petit paquet de données qui est envoyé [ndlr : les données sont toujours divisées en «petits paquets» qui sont envoyés séparément], TCP doit avoir un accusé qu’il a été bien reçu pour assurer une fiabilité de transmission. Ça date des années 80, une époque où les réseaux étaient beaucoup plus lents que maintenant, et c’est pour ça que des modifications ont été apportées au TCP/IP pour augmenter la performance, mais ça reste un travail d’ingénierie à chaque bout du réseau pour maximiser la vitesse.»

Bref, c’est la somme de tous ces délais qui fait la «latence» dans les communications. D’un système à l’autre, d’une situation particulière à l’autre, ils peuvent varier énormément, si bien qu’il est impossible de dire exactement qu’est-ce qui s’est passé dans les cas qui ont tant agacé notre lecteur de La Malbaie. Mais quand on les additionne, on comprend pourquoi il arrive, de temps à autre, que la discussion entre les journalistes et les chefs d’antenne se fasse avec un petit délai.

***

ÉCRIVEZ-NOUS Vous vous posez des questions sur le monde qui vous entoure? Qu'elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d'y répondre. À nos yeux, il n'existe aucune «question idiote», aucune question «trop petite» pour être intéressante! Alors, écrivez- nous à  jcliche@lesoleil.com

Jean-François Cliche

De bombes et d'icebergs...

SCIENCE AU QUOTIDIEN / «Comme les ouragans prennent vie à partir des côtes africaines et gagnent en puissance en se nourrissant de la chaleur des eaux chaude de l’Atlantique, serait-il possible de les «intercepter» lors de leur formation pour à tout le moins, les affaiblir ? Par exemple, en s’inspirant des Émirats arabes qui songent à remorquer des iceberg pour s’approvisionner en eau douce, est-ce que de remorquer des mastodontes gelés au début de la trajectoire de formation des ouragans pourrait avoir une incidence quelconque ? C’est un peu farfelu j’en conviens, mais ça m’intrigue quand même», demande Simon Côté.

Supposons que l’on soit capable de remorquer un grand iceberg en forme de cube et de 100 mètres d’arête. Ce serait une sacrée commande, même en y mettant plusieurs remorqueurs, puisque notre «glaçon» pèserait environ 910 millions de kg, mais passons. Et supposons aussi que l’on parvienne à amener le colosse intact jusque dans les eaux tropicales à une température de –10°C.

Pour faire fondre toute cette glace, puis en chauffer l’eau jusqu’à 26 °C (on ne veut pas atteindre 26,5, rappelons-le), il faut de l’énergie. Beaucoup d'énergie : ce sont des montagnes de chaleur, littéralement, que notre iceberg drainerait autour de lui.

D’abord, chaque gramme de glace prend 2 joules d’énergie pour gagner 1°C (pour comparaison, une ampoule de 100 watts brûle 100 joules par seconde). Alors pour chauffer nos 910 millions de kg de glace de –10°C jusqu’à 0°C, il faut un total de 18 200 gigajoules (Gj). Ensuite, pour que la glace fonde, il ne suffit pas de l’amener à 0°C, contrairement à ce qu’on pense souvent. Il faut aussi lui fournir un petit surplus d’énergie nommé chaleur latente de fusion, qui sert grosso modo à rompre les liens qui tiennent les molécules d’eau ensemble dans la glace. Facture énergétique : 333 joules par gramme, pour un total de 303 000 Gj. Et enfin, pour chauffer cette eau de 0° jusqu’à 26 °C, il faut compter 4,2 joules par gramme, ou près de 100 000 Gj en tout.

Au final, notre cube de glace de 100 mètres de côté drainerait à peu près 420 000 Gj en fondant, puis en se réchauffant jusqu’à 26 °C. Ce qui serait suffisant pour refroidir de 1°C la température de 100 millions de m3 d’eau.

Maintenant, la question est : est-ce que cela suffirait à faire une différence ? Et la réponse est clairement «non, même pas proche». Les ouragans prennent généralement forme dans les eaux tropicales (de 8 à 20° de latitude) entre l’Afrique et l’Amérique du Sud, quand la température de surface est de plus de 26,5 °C. Il faut aussi que d’autres conditions soient réunies, notamment des caractéristiques de vent et d’humidité en altitude, mais concentrons-nous sur la température de l’eau.

Cette semaine, d’après les cartes de température [https://bit.ly/2QdSSzx] que l’on trouve sur le site de la National Oceanic and Atmospheric Administration (NOAA), les eaux de surface de l’Atlantique dépassaient le seuil de 26,5 °C entre approximativement 8 et 13° de latitude et entre 60° et 30° de longitude ouest. Cela nous fait donc, de manière conservatrice, une superficie de près de 1,5 million de km2. En partant du principe que la «surface» inclut le premier mètre, on parle ici de 1500 milliards de mètres cubes d’eau à refroidir.

C’est donc dire qu’il faudrait 15 000 icebergs comme celui de notre exemple pour abaisser la température de toute cette eau de seulement 1°C. Et c’est sans compter le grand pan d’océan autour des Caraïbes, où les ouragans peuvent prendre beaucoup de force. Et cela fait abstraction du fait que les eaux de surface dépassent assez souvent les 26,5 °C par plusieurs degrés.

Bref, même en prenant un scénario très optimiste où notre iceberg ne fondrait pas avant d’arriver dans les Tropiques, il ne serait pas grand-chose de plus qu’une goutte d’eau dans l’océan…

* * * * *

«Je me demande pourquoi on n’est pas capable de briser un ouragan lors de sa formation, avant qu’elle ne devienne très forte. Y a t-il des sortes de bombe que l’on pourrait faire sauter dans l'œil dès sa formation pour la briser», demande Claude Duchesne, de Stoneham.

L’idée n’est pas neuve, loin de là. Elle a même fait l’objet de quelques travaux d’un chercheur américain dans les années 50, qui estimait qu’une petite bombe nucléaire bien placée pouvait faire le travail. Il a étudié l’effet atmosphérique de certains essais nucléaires de l’époque et fait quelques calculs, mais l’idée n’a jamais eu de suite vraiment concrète.

Et ce n’est peut-être pas une mauvaise chose, d’ailleurs. Au-delà du fait (assez gênant, merci) que ce «plan» impliquerait de saupoudrer des grandes quantités de radioactivité dans l’atmosphère et dans l’océan, il y a ce petit détail technique que cela a très, très peu de chances de fonctionner, pour deux raisons, lit-on sur le site de la NOAA.

D’abord, comme pour l’iceberg, il y a une question d’échelle : l’énergie relâchée par un ouragan équivaut grosso modo à faire exploser une bombe nucléaire de 10 mégatonnes… à toutes les 20 secondes. Alors on peut difficilement penser qu’en faire sauter 2 ou 3 changerait grand-chose.

Ensuite, ce qui fait la force d’un ouragan, c’est l’intensité de la basse pression dans son «œil» : plus cette pression est basse, plus l’air des alentours sera aspiré fortement, et plus les vents seront puissants. Pour affaiblir un ouragan, il faudrait donc ajouter de l’air en son centre. Encore une fois, on parle de quantités si astronomiques qu’elles interdisent l’espoir d’y arriver un jour : de l’ordre de 500 millions de tonnes d’air qu’il faudrait souffler dans l’œil d’un cyclone de force 5 pour qu’il tombe à une force 2, selon les calculs de la NOAA. Mais de toute manière, ce n’est pas ce que les bombes font. Une explosion ne déplace pas d’air, ou en tout cas pas tellement. Cela envoie surtout une onde de choc qui, une fois passée, laisse les pressions inchangées derrière elle.

Sources :

  • Central Pacific Hurricane Center, Myths About Hurricanes, NOAA, s.d., https://bit.ly/2xy2CdB
  • Mark Strauss, Nuking Hurricanes : The Surprising History of a Really Bad Idea, National Geographic, 2016, https://bit.ly/2MaW9w2

Jean-François Cliche

L'âme des indécis

BLOGUE / Il y a une question, toujours la même, sur laquelle les sondeurs se cognent le nez depuis des décennies : qu'est-ce qu'on fait avec les indécis ? Comment on les répartit ? Doit-on seulement les répartir ? Les sondages Mainstreet que Le Soleil et les autres journaux de GCM publieront pendant la campagne utilisent une méthode de répartition un peu inhabituelle, du moins au Québec. Alors profitons-en pour examiner tout cela...

ERRATUM (23 août) : On me signale que la plupart des sondeurs procèdent grosso modo de la même manière que Mainstreet, contrairement à ce que ce texte laisse entendre, soit en demandant l'intention de vote et en demandant ensuite aux indécis s'ils ont quand même une certaine préférence pour un parti. Ce n'est qu'ensuite qu'ils répartissent les indécis restants de manière proportionnelle. La confusion, en ce qui me concerne, est venue du fait que la question de relance aux indécis n'est pas toujours explicitée dans les rapports de sondage, mais le résultat est le même : des passages importants de ce texte ne sont pas valides. Toutes mes excuses.


La manière classique de procéder est de carrément et simplement retirer les indécis du portrait. Par exemple, si vous avez 15 indécis sur un échantillon de 100 personnes, alors vous les écartez, vous ne retenez que les répondants qui ont exprimé une préférence et vous calculez vos pourcentages comme s'il n'y avait que 85 personnes dans l'échantillon. Ainsi, un parti qui aurait obtenu, disons, 30 appuis sur 100 AVANT répartition des indécis se retrouverait donc avec 30 ÷ 85 x 100 = 35,3 % des intentions de vote.

C'est une approche qui se défend très bien, soulignons-le. Dans une élection, il n'y a que les votes qui comptent, que l'opinion des électeurs décidés. Ceux qui n'ont pas pu se brancher à temps ne comptent pas, et c'est ce que la «répartition proportionnelle» (nom fréquemment employé pour désigner cette manière de «gérer» les indécis) reflète. Ce n'est pas pour rien que c'est l'approche la plus utilisée — même si ce n'est pas la seule, voir à ce sujet ce très beau survol que la spécialiste des sondages Claire Durand, de l'UdeM, a publié ce matin.

Mais en stats comme dans n'importe quoi d'autre, il n'y a jamais rien de parfait. Cette méthode présume que les indécis se répartissent exactement comme les autres, ce dont on ne sait rien, en réalité. Elle fait comme si les indécis n'iront pas voter, mais on sait qu'un certain nombre le feront — et à l'inverse qu'un certain nombre de «décidés» ne se rendront finalement pas aux urnes.

Bref, la répartition proportionnelle des indécis a de beaux avantages, mais ils viennent avec des inconvénients.

C'est précisément éviter ces inconvénients-là que certains sondeurs procèdent autrement. La firme Mainstreet commence par simplement demander l'intention de vote puis, quand la réponse est «ne sait pas», elle demande au répondant s'il a quand même un certain penchant pour un des partis en lice. Puis elle additionne les «enclins» et les «décidés» pour en arriver à un chiffre final plus complet. Il reste encore des indécis au terme de cet exercice, mais dramatiquement moins — autour de 2 % contre 13 % au départ, dans les chiffres les plus récents de Mainstreet.

C'est une approche qui, elle aussi, a ses plus et ses moins. Contrairement à la proportionnelle, elle ne présume pas de la répartition des indécis, mais les laisse plutôt se répartir eux-mêmes, pour ainsi dire. Bel avantage. D'un autre côté, cependant, alors que la proportionnelle ne se fonde que sur les décidés, la méthode Mainstreet introduit un élément un peu «mou», au sens où le vote des enclins est moins solide (et moins susceptible de se transformer en «vote sonnant et trébuchant») que celui des décidés. Mais ils sont pourtant regroupés ensemble.

Bref, pour les fins de la discussion, je proposerai ceci : ces choix-là me semblent être des trade-offs, comme on dit en français élégant. C'est-à-dire qu'en changeant d'approche, on se débarrasse des défauts de notre ancienne méthode, mais on abandonne aussi ses qualités.

Qu'en dites-vous ? Avez-vous une méthode favorite ? Et pour quelles raisons ?

Chronique

Le corps humain, ce four

LA SCIENCE AU QUOTIDIEN / «Pourquoi avons-nous chaud quand nous allons dehors, l’été, et qu’il fait 30 °C? Pourtant, notre corps a une température d’environ 37 °C, alors il me semble que ce n’est que lorsqu’il fait plus de 37 °C que nous devrions commencer à avoir chaud, non?» demande Frédérique Duquette, 12 ans.

C’est parce que le corps humain produit lui-même beaucoup de chaleur. À chaque instant, l’organisme doit brûler de l’énergie pour faire battre le cœur, inspirer et expirer de l’air, digérer, envoyer des signaux nerveux, faire fonctionner le cerveau et ainsi de suite — et c’est sans rien dire de nos activités physiques. Mine de rien, tout cela génère pas mal de chaleur.

Éditorial

Mais il y a la manière...

ÉDITORIAL / Sur le fond, le président américain Donald Trump a raison : les pays de l’Alliance atlantique (OTAN) doivent dépenser davantage pour leur propre défense. Mais la manière qu’il y met est à ce point grossière et contreproductive qu’on ne peut s’empêcher d’y lire une profonde incompréhension des enjeux internationaux — dans le meilleur des cas.

Cette semaine, avant même d’arriver au sommet de l’OTAN qui a lieu à Bruxelles, M. Trump a (encore) trouvé le moyen d’insulter les alliés historiques des États-Unis. «Plusieurs pays de l’OTAN, qui s’attendent à ce que nous les défendions, non seulement ne respectent pas leur engagement [d’allouer 2 % de leur PIB aux dépenses militaires] mais sont aussi coupables de plusieurs années de paiements non-remis», a-t-il tweeté mardi. À peine débarqué au sommet, hier, il a accusé (sans fondement) l’Allemagne d’être «totalement sous contrôle» de la Russie.

Tout ce que dit M. Trump fait vivement réagir et cette dernière scène n’a pas fait exception à la règle, mais le fait est qu’il n’est pas le premier à évoquer ce 2 % — même s’il semble confondre les dépenses militaires nationales et le budget de l’Alliance. En 2014, lors d’un sommet de l’OTAN, son prédécesseur Barack Obama et le premier ministre britannique du temps David Cameron avaient demandé aux autres pays membres de faire leur «juste part». «Je vais être franc, des fois l’Europe a été complaisante en matière de défense», avait répété M. Obama au début de 2016.

D’autres que M. Trump — et des gens sérieux — ont fait le même constat dans le passé, et il faut admettre qu’il n’est pas sans mérite : rassurés par la présence américaine, certains pays ont réduit abusivement leurs dépenses militaires. Il n’y a pas de mal à vouloir que ça se corrige.

Mais en diplomatie, la manière de dire les choses est souvent aussi importante que le fond. Depuis quand insulte-t-on des alliés fidèles pour passer ses messages? La méthode plus douce, plus respectueuse avait pourtant commencé à porter fruit : après l’appel de MM. Obama et Cameron, les pays de l’OTAN avaient augmenté leurs dépenses militaires totales pour la première fois en 20 ans, en 2015 et en 2016. Tous ne l’ont pas fait également et plusieurs (dont le Canada) sont encore loin de la cible des 2%, mais ils se sont engagés à y arriver d’ici 2024.

En outre, l’idée que le pauvre Oncle Sam se fait exploiter contre son gré passe à côté d’un point fondamental : si les États-Unis ont tant de bases militaires en Europe (et partout dans le monde, en fait), c’est qu’ils ont calculé que c’était dans leur intérêt. Avoir une base dans une région donnée facilite d’éventuelles interventions militaires, ce qui amène une stabilité dans ladite région et y augmente l’influence politique américaine.

Il est possible, comme le supputait cette semaine l’ancien ambassadeur américain en Israël Dan Shapiro, que les insultes de M. Trump cachent quelque chose de plus délibéré qu’une simple incompréhension de la politique internationale. Peut-être ce numéro vise-t-il à faire éclater l’OTAN, de la même manière que M. Trump a saboté le dernier sommet du G7. Compte tenu de son isolationnisme notoire, ce serait logique.

Si c’est bien le cas, les prochaines années risquent d’être fort chaotiques. On parle ici d’une administration qui, dans la crise des migrants, a séparé de jeunes enfants de leurs parents sans même prévoir de mécanisme pour les rassembler. Alors on ne peut pas présumer qu’avant d’annoncer un retrait de l’OTAN, M. Trump en envisagera sérieusement les conséquences.

Éditorial

Amendes impayées: la vraie cible

ÉDITORIAL / L’histoire de Valérie Brière, cette mère monoparentale en prison pour amendes impayées, est bouleversante. Pour illustrer jusqu’à quel degré d’aberration une bureaucratie sans âme peut se rendre, il est difficile de trouver mieux. Mais contrairement à ce que plusieurs intervenants ont conclu, nous ne croyons pas que ce cas est une bonne raison d’abolir l’emprisonnement pour les tickets impayés. C’est ailleurs qu’il faut agir.

Entre 2001 et 2006, Mme Brière était itinérante. Pendant cette période, elle a cumulé 2120 $ d’amendes pour avoir mendié, fait du squeegee et uriné en public. Elle avait participé à un programme de la Ville de Québec pour effacer sa dette, notamment par des travaux compensatoires et en retournant aux études. Mais «la vie», notamment deux jeunes enfants et un épisode de violence conjugale, a fini par l’empêcher d’adhérer au programme. Ne pouvant toujours pas payer, Mme Brière a été condamnée à un peu plus de trois mois de prison.

La Clinique Droit de cité met maintenant de l’avant son cas pour réclamer un moratoire sur les peines de prison pour amendes impayées. Mais le maire Régis Labeaume estime que le programme de la Ville est suffisant : «Il faut que les gens se forcent pour se refaire, qu’ils participent», a-t-il dit.

Le fait est qu’il est toujours hasardeux d’évaluer une politique à travers le prisme d’un cas unique. De manière générale, la possibilité d’emprisonner un mauvais payeur est un outil judiciaire qui peut être à la fois utile et juste, bien qu’il s’agisse d’un dernier recours. Si un contrevenant n’a pas les moyens d’acquitter sa dette envers la Ville, il doit toujours avoir l’option de payer autrement — les «travaux compensatoires». Mais si quelqu’un est trop pauvre et refuse les travaux, qu’est-ce que la Ville est supposée faire? On ne peut pas laisser des gens s’en tirer de cette manière alors que les autres citoyens honorent leur dette d’une manière ou d’une autre. Cela violerait des notions de justice élémentaire et, pour cette raison, l’emprisonnement pour amendes impayées doit rester une possibilité, au moins dans certains cas.

Afin d’éviter que d’autres histoires comme celle de Mme Brière ne surviennent, il faut agir en amont : de toute évidence, il ne donne pas grand-chose de multiplier les amendes aux itinérants. Des chercheurs ont récemment analysé plus de 3700 amendes remises par la Ville de Québec entre 2000 et 2010 à des sans-abri — ivresse publique, mendicité, squeegee, etc. La majorité n’ont reçu que deux ou trois tickets, signe que l’itinérance est (heureusement) souvent passagère. Mais le tiers d’entre eux en ont reçu suffisamment pour cumuler plus de 1000 $ de dette, et même plus de 5000 $ dans 10 % des cas. Pour tout dire, un de ces itinérants s’est même rendu à 48 000 $ d’amendes impayées!

Imaginez un peu : d’un côté, on leur demande de se prendre en main mais, de l’autre, on leur colle tellement d’amendes que le jour où ils décident de remettre leur vie en ordre, la première chose qui les attend est une facture qu’ils n’ont pas les moyens de payer, ou de longs travaux compensatoires, ou encore quelques mois de prison. On tenterait d’inventer un pire incitatif à sortir de la mendicité qu’on n’y parviendrait probablement jamais.

Il faut trouver une meilleure manière de gérer l’itinérance à Québec que de multiplier les contraventions. C’est (beaucoup) plus facile à dire qu’à faire, on en convient, mais abandonner une pratique manifestement contreproductive n’a rien de bien sorcier. Ce serait déjà un début.