En avril 2018, BuzzFeed a diffusé une vidéo conçue par le cinéaste Jordan Peel dans laquelle on peut voir l'ex-président américain Barack Obama insulter Donald Trump. Cet extrait est rapidement devenu viral, récoltant quelque 5,8 millions de visionnements depuis sa mise en ligne.

«Deepfake»: quand l'intelligence artificielle se mêle des fausses nouvelles

AUSTIN — Une personnalité bien connue, des propos qui paraissent invraisemblables, une vidéo qui enflamme le Web. Ces images seront visionnées à des millions de reprises par les internautes. Mais le hic, c'est qu'elles ont été fabriquées de toutes pièces.

Bienvenue dans le monde du deepfake.

Cette nouvelle forme de désinformation fait appel à des logiciels utilisant l'intelligence artificielle afin de transposer la voix et le visage de quelqu'un, comme un politicien ou une personnalité bien connue. Et à l'approche de la campagne électorale fédérale, les électeurs, déjà exposés aux fausses nouvelles, devront redoubler de prudence s'ils ne veulent pas être piégés par les adeptes de la falsification.

Si les moyens technologiques existent pour manipuler le message de cette façon, la recette permettant d'être à l'abri de cette forme de désinformation en croissance ne semble pas exister.

Cet avertissement a été lancé par la directrice du contenu produit par les usagers chez Reuters, Hazel Baker, ainsi que le directeur du contenu vidéo au sein de cette agence internationale, Nick Cohen, dans le cadre d'une conférence intitulée «se préparer pour la prochaine vague; les vidéos de fausses nouvelles», à SXSW, à Austin, au Texas.

«Les deepfakes permettent de créer du contenu où l'on peut faire dire n'importe quoi à n'importe qui, s'est inquiété M. Cohen. Heureusement, il n'y pas d'histoire d'envergure qui a émergé de cette technologie pour le moment.»

Le «deepfake» le plus célèbre du Web

Le phénomène s'est notamment mis à attirer l'attention après la diffusion par BuzzFeed, en avril 2018, d'une vidéo conçue par le cinéaste Jordan Peel. Cet extrait d'un peu plus d'une minute, dans lequel on peut voir l'ex-président américain Barack Obama insulter l'actuel locataire de la Maison-Blanche, Donald Trump, est rapidement devenu viral, récoltant quelque 5,8 millions de visionnements depuis sa mise en ligne.

L'actrice Scarlett Johansson également s'est retrouvée au coeur d'un scandale quand son visage a été utilisé dans de nombreuses vidéos pornographiques.

Cette nouvelle façon de tromper la population vient ainsi s'ajouter à la publication de fausses nouvelles ainsi que la manipulation d'images — qui piègent déjà des millions de personnes.

Préoccupée par la sophistication des deepfakes, une équipe sous la supervision des deux conférenciers a mis la main à la pâte, dans le cadre d'un exercice interne, dans le but de falsifier une vidéo. Le constat a été frappant, puisqu'au terme de cette expérience, on a réalisé qu'il ne fallait qu'«un après-midi» afin de produire ce type de contenu.

Bien que l'on puisse quand même faire appel à la technologie pour tenter de déceler le vrai du faux, celle-ci doit être combinée à l'analyse et l'instinct de tous et chacun, estime Mme Baker. Celle-ci a expliqué qu'une impression de désynchronisation des lèvres de la personne que l'on peut voir dans une vidéo, est un bon indice pour mettre la puce à l'oreille de ceux qui sont exposés à ce contenu.

«Il en revient à nous, les citoyens, de savoir ce que sont les deepfakes afin [d'être sensibilisés] et d'être en mesure de les détecter, a souligné le responsable des contenus vidéo chez Reuters. Nous devons tout simplement mieux comprendre le phénomène pour s'y préparer.»

Si le Canada ne semble pas encore avoir été le théâtre d'une diffusion à grande échelle d'un deepfake, le phénomène commence à préoccuper grandement la classe politique américaine, qui se demande si ces vidéos pourraient envenimer l'élection présidentielle de 2020.

En septembre dernier, trois membres de la Chambre des représentants, dont le républicain Adam Schiff, qui siège sur la commission du renseignement, avait écrit au directeur du renseignement national pour lui faire part de ses craintes. Le département de la Défense, qui se penche sur la question, a également commencé à tabler sur des pistes de solution afin de détecter ces vidéos aux apparences trompeuses.