Aller au contenu principal

L’hypertrucage: une grave menace pour notre sécurité et la démocratie

19 février 2020

L’utilisation de l’hypertrucage peut parfois nous enchanter ou nous étourdir par le biais de ses représentations expertes dans les industries du divertissement et des jeux et dans les campagnes de marketing comme celle de la récente publicité de Loto-Québec.

Mais le sinistre visage de cet hypertrucage, ou deepfakesune forme de désinformation qui utilise des algorithmes d’apprentissage automatique pour créer des enregistrements audio et vidéo de personnes réelles prononçant et exécutant des choses qu’elles n’ont jamais dites ou faites, est une menace sérieuse pour la sécurité des personnes et la démocratie.

Aujourd’hui, tout le monde peut créer ses propres fausses nouvelles et les diffuser. La propagande en ligne est plus trompeuse et plus manipulatrice que jamais.

Les deepfakes sont en train de devenir rapidement impossibles à distinguer de la réalité.

Il est plus urgent que jamais de détecter la désinformation alimentée par des utilisations non éthiques des médias numériques, des données massives et de l’intelligence artificielle, et leur diffusion par les médias sociaux.

Les pays doivent éduquer et équiper leurs citoyens. Les éducateurs doivent également relever de réels défis pour aider les jeunes à développer leur discernement face aux deepfakes. Pire, si les jeunes manquent de confiance pour trouver et évaluer des informations publiques fiables, leur motivation à participer à notre société démocratique ou à s’y fier sera de plus en plus menacée.

Saper la démocratie

Il est maintenant possible de générer une vidéo d’une personne qui parle et fait des expressions faciales à partir de quelques images ou même d’une seule image du visage de cette personne. Les applications « face swap » qui consistent à permuter des visages telles que FaceApp ou Zao et les applications de synchronisation labiale telles que Dubsmash sont des exemples d’outils de base accessibles et conviviaux que les gens peuvent utiliser sans aucune connaissance en matière de programmation ou de codage.

Le potentiel d’utilisation des deepfakes comme arme augmente de manière alarmante et des dommages importants peuvent être anticipés puisque n’importe qui peut créer des contenus explicites sans le consentement d’autrui.

On s’attend à ce que les gens utilisent les deepfakes pour faire du cyberharcèlement, détruire des réputations, faire du chantage, diffuser des discours de haine, inciter à la violence, perturber les processus démocratiques, diffuser des désinformations à des publics ciblés et commettre des cybercrimes et des fraudes.Danielle Citron, professeur à la Faculté de Droit de l’Université de Boston, explique comment les deepfakes sapent la vérité et menacent la démocratie.

Détection des deepfakes

Il y a plus de dix ans, l’analyste Internet et spécialiste des nouveaux médias Clay Shirky a déclaré que « La seule véritable façon de mettre fin au spam est d’arrêter la communication par e-mail ». La fermeture d’Internet serait-t-elle le seul moyen de mettre fin à la propagande des deepfakes en 2020 ?

Les principaux acteurs se sont aventurés à trouver une réponse aux menaces des hypertrucages.

Facebook a annoncé le 6 janvier qu’elle « renforcera sa politique à l’égard des vidéos manipulées trompeuses qui ont été identifiées comme des deepfakes ». L’entreprise affirme qu’elle supprimera les médias manipulés qui ont été « édités ou synthétisés – au-delà des ajustements pour la clarté ou la qualité – d’une manière qui n’est pas apparente pour le public » et si les médias sont « le produit de l’intelligence artificielle ou de l’apprentissage automatique qui fusionne, remplace ou superpose le contenu d’une vidéo, le faisant apparaître comme authentique ».

La nouvelle fait suite au deepfake challenge de Facebook, qui vise à concevoir de nouveaux outils pour détecter les contenus médiatiques manipulés. Ce défi est soutenu par Microsoft, un consortium sur l’intelligence artificielle et un fonds de 10 millions de dollars.

À la fin octobre, le PDG de Facebook, Mark Zuckerberg, a témoigné lors d’une audition de la commission des services financiers de la Chambre des représentants des États-Unis à Washington sur les plans de cryptomonnaie de la société, où M. Zuckerberg a été confronté à des questions sur ce que la société fait pour empêcher les deepfakes.

L’Agence des projets de recherche avancée de la Défense (DARPA) du Département Américain de la Défense travaille sur l’utilisation de types d’algorithmes spécifiques pour évaluer l’intégrité des médias visuels numériques.

Certains chercheurs discutent de l’utilisation des réseaux neuronaux convolutionnels – un ensemble d’algorithmes qui reproduit approximativement le cerveau humain, conçu pour analyser l’imagerie visuelle et reconnaître les modèles – pour détecter les incohérences entre les multiples trames dans les deepfakes. D’autres proposent des algorithmes pour détecter les visages entièrement générés par la machine.

Hani Farid, expert en informatique légale et judiciaire et l’une des principales autorités en matière de détection de fausses photos, et son étudiante Shruti Agarwal de l’Université de Californie à Berkeley développent un logiciel qui utilise les caractéristiques subtiles de la façon dont une personne parle pour distinguer cette personne de la version contrefaite.

Farid collabore également très étroitement avec Hao Li, pionnier d’ hypertrucage, pour faire face au problème croissant de l’hypertrucage à la portée de la main.

La communauté juridique canadienne a publié des articles qui détaillaient des motifs d’action pour contrer la menace de de l’hypertrucage

La nation de YouTube

Et si nous nous réveillions demain matin avec un faux-semblant de Greta Thunberg, la personnalité de l’année 2019 du magazine Time, accusant une organisation spécifique d’être le principal catalyseur du changement climatique ? Est-ce que les jeunes seraient sceptiques face à cette information ?

Nous vivons dans une ère numérique où beaucoup de gens s’attendent à ce que chaque réponse soit trouvée par une recherche sur Google, une vidéo sur YouTube ou Vimeo ou un discours sur TED. À peu près tous les jeunes Canadiens âgés de 15 à 24 ans utilisent l’internet quotidiennement. La plupart suivent les nouvelles par le biais des médias sociaux comme Facebook, Twitter et Instagram.

En 2017, 90 pour cent des Canadiens âgés de 18 à 24 ans étaient des utilisateurs actifs de YouTube.

Selon Statista, une société qui fournit des données sur le marché et les consommateurs, « en mai 2019, plus de 500 heures de vidéo étaient téléversées sur YouTube chaque minute », ce qui équivaut à « environ 30 000 heures de contenu nouvellement téléchargé par heure ». La société rapporte qu’entre 2014 et 2019, « le nombre d’heures de contenu vidéo téléversé toutes les 60 secondes a augmenté d’environ 40 pour cent ».

De nombreux utilisateurs des médias sociaux âgés de 18 à 24 ans reconnaissent aujourd’hui les agendas et les algorithmes qui se cachent derrière les messages qui s’affichent sur leurs murs. Dans le cadre de ma thèse de doctorat, j’ai étudié comment 42 participants de ce groupe d’âge comprenaient les réfugiés dans un contexte où leur image était profondément influencée par la propagande des médias sociaux, les fausses nouvelles et la désinformation. J’ai découvert que beaucoup d’entre eux avaient envie de devenir des influenceurs et de perturber les commentaires publics et les messages générés par les médias, ce qui est fait écho aux campagnes de sensibilisation ou d’activisme menées aujourd’hui par les jeunes.

Le phénomène des fausses nouvelles est un nouveau défi critique auquel les jeunes et tous les participants à notre démocratie sont confrontés.

L’éducation pour la résilience

Au Canada, Journalistes pour le droits humains (JDH) a annoncé un nouveau programme, financé par Héritage Canada, pour former les journalistes et « lutter contre la désinformation par le renforcement des médias et l’état de préparation des citoyens au Canada ».

Les éducateurs peuvent jouer un rôle clé dans la lutte contre la fausse nouvelle. L’un de leurs défis consiste à s’assurer que les jeunes développent des compétences critiques en matière d’éducation aux médias tout en continuant à explorer des ressources crédibles en ligne et à renforcer leurs capacités et leurs connaissances pour participer aux structures démocratiques.

Les éducateurs peuvent suivre les étapes que j’ai identifiées dans le modèle « Get Ready to Act Against Social Media Propaganda ». En commençant par expliquer les positions sur un sujet controversé ciblé par la propagande des médias sociaux, les éducateurs peuvent aider les jeunes à discuter de la façon dont ils perçoivent et reconnaissent les deepfakes. Ils peuvent explorer les origines du contenu, les personnes ciblées, la réaction que ce contenu suscite et les personnes qui le soutiennent.

Les éducateurs peuvent également discuter du rôle et de la responsabilité des jeunes pour répondre et s’opposer à la désinformation. Ils peuvent identifier des stratégies numériques potentielles à poursuivre dans ce processus. Une génération de citoyens numériques bien équipée pourrait être notre meilleure chance.

Autrice

Cet article a été publié dans La Conversation Canada par Nadia Naffi.