Initiatives pour contrer la désinformation sous forme d’hypertrucage
La désinformation existe depuis la nuit des temps, mais ce phénomène n’a jamais pris autant d’importance qu’aujourd’hui. Nous côtoyons en permanence un flux incessant de nouvelles, de vidéos, de publications, si bien que la surabondance d’informations sur le Web est devenue une normalité et même un principe de fonctionnement. La technologie est devenue si facile et si accessible que nous l’utilisons sans considération des retombés des utilisations non-éthiques sur l’humain et la société. Alors que la production de désinformation était limitée à un groupe de personnes initiées, elle concerne aujourd’hui n’importe quel utilisateur ou utilisatrice. Finalement, ce qui pourrait être considéré pour certains groupes une liberté d’expression peut contribuer à la fabrique de mensonges et à laquelle n’importe qui peut participer, parfois même à son insu.
Ce site propose donc un inventaire non exhaustif, mais représentatif d’initiatives prises entre 2019 et 2022, pour contrer cette tendance.
Trois grandes mesures semblent prendre forme et elles émergent à différents niveaux de la société.
Une première mesure se situe au niveau de la responsabilité individuelle et elle est principalement insufflée par des organismes éducatifs. Face à ce système cynique et peu réglementé de désinformation, notre première responsabilité est donc de comprendre son fonctionnement pour s’en distancer. Qu’est-ce qui dirige la circulation de l’information ? Comment est-elle fabriquée et distribuée et surtout, sommes-nous assez avisés à son égard ?
Une deuxième mesure repose sur le recours à l’intelligence artificielle. En effet, une forme encore plus insidieuse et dangereuse de désinformation s’appelle l’hypertrucage. Ces médias de synthèse ne sont pas toujours détectables à l’œil nu. L’excès d’images et de vidéos contribue à leur banalité et affaiblit notre regard critique à leur égard. Cependant, le traçage des médias modifiés va devenir une priorité et un enjeu majeur sur le Web. Cette technologie de détection est en évolution très rapide et les articles répertoriés pourraient déjà ne plus être à jour.
Enfin, une troisième mesure intervient au niveau de la loi. Les réflexions sur l’enjeu éthique autour de l’utilisation des hypertrucages commencent seulement à émerger et les voies légales déjà existantes ne peuvent couvrir tous les dommages. Alors que la conscience citoyenne peut prévenir les usages maladroits de l’information, il manque encore des outils juridiques pour punir les actes malveillants et des règles pour réguler l’utilisation des outils technologiques.
Répertoire des initiatives
Connaître le système, les rouages de fabrication des images, les algorithmes filtrant l’apparition des informations sur les écrans, c’est bâtir un rempart contre leur nuisance. Reconnaître les aspects d’un média douteux ou d’informations tronquées exige beaucoup d’attention, contrairement à l’attitude passive que les médias créent chez le spectateur. Que ce soit par l’école, l’éducation à la maison, ou les milieux communautaires, les initiatives de formation à une lecture avisée des médias se concrétisent dans plusieurs milieux.
Aplatissons la courbe de l’infodémie
La pandémie de COVID-19 a engendré une «infodémie», c’est-à-dire un flot continu d’informations officielles, d’articles scientifiques, d’opinions au sujet du virus. Comment juger si une vidéo, un article ou même un énoncé sur les réseaux sociaux sont dignes de confiance ? L’OMS propose 7 étapes de vérification d’un contenu avant de décider si l’on peut s’y fier. L’OMS agit également à titre de diffuseur avec les organismes officiels de santé et les institutions gouvernementales ou privées pour que leurs messages de santé apparaissent en premier sur les grandes plateformes numériques.
Beware of criminals pretending to be WHO
La pandémie de COVID-19 a donné lieu à une augmentation du piratage informatique tel que l’hameçonnage. Ce type de cyberattaque se réalise par l’envoi de messages imitant l’adresse courriel de l’OMS afin de solliciter des dons et exigeant ainsi les informations personnelles des utilisateurs telles que leurs données bancaires. Cette page donne de l’information sur les aspects d’un message frauduleux, précise comment le détecter, et comment signaler ce genre d’événement.
Comment signaler les informations erronées en ligne
En mai-juin 2020, l’OMS s’est associée au gouvernement du Royaume-Uni en lançant une campagne de sensibilisation au sujet de la propagation d’informations erronées ou trompeuses sur la pandémie de COVID-19. Pour y contribuer, les utilisateurs sont invités à signaler toute information trompeuse détectée en ligne. Pour chaque plateforme de réseaux sociaux, il existe des liens vers des pages d’aide contenant les informations pour signaler des contenus ou des contacts douteux. De cette manière, l’OMS souhaite limiter la présence d’informations dont l’origine n’est pas fiable.
Les Nations Unies lancent une initiative mondiale pour lutter contre la désinformation
En mai 2020, dans le contexte de la COVID-19, les Nations Unies ont lancé la campagne « Vérifié » afin de lutter contre la propagation de fausses informations. À un niveau local, les agences de chaque pays recruteront des « volontaires de l’information » qui seront chargés de partager dans leur communauté les informations vérifiées et ainsi, contrecarrer l’abondance de désinformation. Les thèmes de la crise climatique, les causes de la pauvreté et les inégalités seront également inclus dans la campagne.
En juillet 2019, Patrimoine canadien a annoncé l’investissement de fonds importants dans quatre programmes visant à soutenir des actions de développement des connaissances des jeunes Canadiens sur leur histoire et leur patrimoine. L’objectif de ces initiatives est de favoriser la culture générale des citoyens, d’aiguiser leur sens critique et de les outiller contre la désinformation en ligne. Un investissement supplémentaire pour soutenir un programme de recherche sur la citoyenneté numérique soutiendra l’élaboration de politiques afin de contrer la désinformation en ligne.
Ce document produit par le ministère de l’Éducation et de l’Enseignement supérieur décrit le cadre de référence, ainsi que les étapes importantes de l’apprentissage des compétences numériques en milieu scolaire. Bien-être numérique, identification et utilisation appropriée des ressources, travail et collaboration sont les piliers d’une formation dans ce domaine. Le développement d’un regard critique à l’égard de la technologie, de ses limites et de ses dérives est également recherché à partir de sujets tels que les techniques d’hameçonnage, les algorithmes, le statut des influenceurs et les réseaux sociaux.
Désinformation : quelles solutions ? (webinaire)
Le scientifique en chef du Québec, Rémi Quirion, et le FRQ sont engagés dans la lutte contre la désinformation depuis plusieurs années et en particulier depuis le début de la pandémie de COVID-19. Cet échange entre Rémi Quirion et plusieurs journalistes scientifiques a eu lieu en mars 2021 aborde plusieurs problématiques. Faut-il et comment légaliser la circulation de fausses informations? Quelle est la responsabilité des grands médias et de la communauté scientifique face aux enjeux de société, particulièrement sensibles à la désinformation? Dans un avenir immédiat, la formation aux bonnes pratiques sur les réseaux sociaux et le financement d’activités de recherche seraient des réponses appropriées.
Éducation aux médias et à l’information
L’éducation aux médias et à l’information (EMI) fait partie du programme éducatif français. Ce document clarifie les concepts fondateurs de l’EMI, précise son ancrage dans l’ensemble des disciplines et propose des pistes utiles pour sa mise en œuvre pédagogique en lien avec le projet d’école ou d’établissement. L’esprit critique et l’éducation à un usage responsable des médias sont considérés comme des compétences essentielles pour faire face aux enjeux du monde numérique du XXIe siècle.
Évènement « Combattre la désinformation au Québec » (webinaire)
À l’initiative de #LaSciencedAbord, ce panel composé du Scientifique en chef du Québec et de quelques communicateurs scientifiques, propose des pistes de solutions pour contrer et prévenir la désinformation. Le développement de la pensée critique, l’éducation à la méthode scientifique, le rétablissement de la confiance envers les institutions publiques, l’encadrement légal du discours haineux sont évoqués.
Forum sur la lutte contre la désinformation- Parler de science dans l’espace public : facile ?
En décembre 2021, le 7e forum organisé par le Fonds de recherche du Québec et le Palais des congrès de Montréal a porté sur le phénomène de la désinformation. Quelles sont les responsabilités des médias dans la diffusion d’information ? Doivent-ils limiter les contenus ? Comment contrôler le flot de messages et de vidéos parfois falsifiées circulant sur les réseaux sociaux ?
La désinformation en ligne: initiative de citoyenneté numérique
L’Initiative de citoyenneté numérique est un programme mis en place par Patrimoine canadien pour lutter contre la désinformation. Il soutient des projets de formation, d’éducation et de recherche dans le but d’instaurer chez les citoyens des pratiques saines des médias numériques et de stimuler un regard critique face aux contenus d’information. Dans le cadre de ce projet pour soutenir la démocratie, Patrimoine canadien a versé en 2019-2020 des fonds pour déployer des initiatives envers les jeunes et les communautés locales et contrer la désinformation sur la COVID-19 et la crise de l’Ukraine.
La plateforme francophone des initiatives de lutte contre la désinformation
L’organisation internationale de la francophonie souhaite, avec cette plateforme, valoriser et donner de la visibilité aux nombreuses initiatives de lutte contre la désinformation à travers le monde dans un espace francophone, le tout, présenter sous forme de répertoire.
Stratégie de mobilisation internationale sur la diversité des contenus en ligne
Patrimoine canadien a pris des dispositions pour s’aligner sur la tendance internationale qui vise à promouvoir la diversité des contenus en ligne, et qui s’inspire de la Convention sur la diversité culturelle de l’UNESCO. En 2018 et 2019, des rencontres ont eu lieu entre partenaires des secteurs privés, publics et la société civile afin d’échanger sur une stratégie internationale pour protéger la liberté d’expression, encourager la participation citoyenne et veiller à la qualité des contenus numériques.
Médias d’actualités scientifiques
3 astuces pour distinguer l’information de l’opinion
Dans les produits d’information que nous lisons, écoutons ou regardons, les opinions et les faits se côtoient et ne sont pas toujours bien distincts. Pourtant, les auteurs ont la responsabilité de citer les sources de leurs informations, de les vérifier, et de clairement faire la distinction entre leurs idées, les faits et ce qu’ils citent. Cet article donne quelques clés pour aider le lecteur à reconnaître les aspects du langage journalistique qui permettront de déceler si un texte relève d’une opinion ou d’un fait vérifié.
6 astuces pour éviter de propager la désinfo
Il est du ressort des utilisateurs des réseaux sociaux de participer à la non-propagation des fausses informations. La meilleure arme contre cette tendance est l’usage du sens critique qui pourra se manifester par l’application de six conseils : la vigilance, la vérification des sources, l’abstention de partage d’information incomprise, le recours à une autorité de référence comme deuxième source.
Anatomie des fausses nouvelles et désinformation virale (vidéo)
Chaque citoyen est une cible potentielle de désinformation mais aussi un propagateur de fausses nouvelles à son insu. Une image, une vidéo, une imitation, un billet, un canular, une scène décontextualisée, une simple opinion, sur n’importe quel sujet de société, peuvent s’avérer être de la désinformation. Le meilleur moyen de minimiser la circulation de cette «infox» est d’être vigilant et de l’identifier.
Attention aux images et aux vidéos (vidéo)
Trois questions doivent survenir face à une image ou une vidéo vue sur les réseaux sociaux : proviennent-elles d’une source fiable ? Y a-t-il une légende ? Peut-on la recouper avec d’autres sources ? La recherche inversée sur Google au moyen de l’image ou de son lien est un outil utile pour retracer sa source et confirmer son éventuelle manipulation. Cette procédure peut s’avérer plus complexe avec les memes, qui sont par nature des images modifiées et les plus propices à propager de la désinformation.
Bulles de filtres et chambres d’écho (vidéo)
La personnalisation de l’information présente un certain danger, car elle nous enferme dans une vision biaisée de l’information sans que nous en ayons conscience. Il est cependant possible pour les utilisateurs de s’exposer à des contenus plus variés en modifiant les paramètres de leurs comptes et en effaçant l’historique de recherche.
Comment fabrique-t-on l’information
L’Agence Science-Presse a mis au point huit fiches thématiques à destination des enseignants du secondaire et du primaire sur le thème de la fabrication de l’information. Elles contiennent des sujets de discussion et des ateliers permettant d’éclairer les différents aspects de l’information (source, opinion, faits) et ses divers canaux de circulation (sites, médias, réseaux sociaux).
Des astuces pour authentifier une image repérée dans le Web
Parfois les émotions face à une image-choc nous empêchent de réfléchir. Pourtant, quelques questionnements devraient automatiquement surgir et provoquer un processus de validation comme la recherche inversée. De plus, en observant l’image, peut-on déduire que le média qui les publie est fiable ? Qui relaie l’information ? La source est-elle indiquée ?
Études scientifiques : lesquelles sont les plus « solides » ?
Toutes les études scientifiques ne procèdent pas des mêmes méthodes de démonstration. Ainsi, même si elles tendent à prouver un résultat, il est important de prendre connaissance de la façon dont la recherche a été menée. Cet article donne quelques explications sur les diverses méthodes d’observation scientifique et des degrés de solidité associées à celles-ci.
« Fake news » : le nouveau visage d’un vieux problème (vidéo)
L’utilisation de la désinformation comme arme de guerre ne date pas d’hier. Cependant, le développement des moyens de communication a permis d’augmenter la rapidité de circulation des rumeurs. Paradoxalement, l’accès à ces sources d’information nous permet aussi de mieux nous informer. Ainsi, il est important d’apprendre à savoir distinguer le faux du vrai.
Indices pour repérer les fausses nouvelles (vidéo)
Facebook et Twitter ne sont pas les seuls à devoir lutter contre la propagation des fausses nouvelles. Lire le média avant de le partager, vérifier la date et l’auteur, le nom du média, la source de l’information, si les informations sont basées sur des faits, sont quelques étapes de vérification qui permettent de débusquer les intentions malfaisantes de diffuseurs de fausses informations.
La balado – Dépister la désinfo (balado)
L’Agence Science-Presse propose 4 balados pour explorer le thème de la désinformation sous divers angles. La désinformation en temps de pandémie, les théories conspirationnistes, la santé naturelle, les algorithmes. La COVID-19 a donné un nouveau visage à la désinformation et a exacerbé les tendances anxiogènes des réseaux sociaux. Ces 4 capsules audio font le point sur ce phénomène historique.
Les fausses nouvelles voyagent plus vite que les vraies (vidéo)
Le caractère inédit des fausses nouvelles facilite leur propagation rapide. De plus, les algorithmes des réseaux sociaux sont basés sur du contenu qui suscite l’engagement des utilisateurs. Cependant, il serait possible d’enrayer ce phénomène avec la modification de ces algorithmes par les plateformes et la préférence des utilisateurs pour des sites fiables.
Le biais de confirmation c’est quoi ?
L’être humain a tendance à naturellement ne retenir que l’information qui lui convient et à rejeter celle qui va à l’encontre de ses croyances. Les réseaux sociaux et les plateformes numériques aggravent cette situation puisqu’ils nous confrontent aux contenus filtrés par nos choix et nos relations sociales. Ce mode de fonctionnement et ces automatismes ne sont cependant pas imparables si on accepte de s’ouvrir à une pluralité de contenus et reste critique envers ce qu’on nous présente comme la vérité.
Certains sujets d’actualité peuvent faire l’objet de rumeurs et d’élaborations au sein de la population. Cette rubrique reprend quelques-uns de ces sujets controversés, retrace leur évolution et dénoue le vrai du faux. Le Détecteur de rumeurs montre comment, par quelques recherches, on peut remonter à l’origine d’une information, la recouper avec d’autres sources et la valider scientifiquement.
Depuis 2017, des journalistes de l’Agence Science-Presse donnent des formations à la lecture critique des médias numériques en milieu scolaire et au grand public en général. Cerner les fausses nouvelles, comprendre les algorithmes, la problématique de la désinformation en science sont les axes principaux de ces ateliers.
Personne n’est à l’abri des fausses nouvelles (vidéo)
Les réseaux sociaux, dont la vocation est de divertir et où une surcharge d’informations circulent en permanence, sont un terrain propice à la propagation de fausses nouvelles. Distinguer une information crédible d’une information fabriquée, discerner une publicité, exigent de la plupart des utilisateurs des habiletés, des connaissances et de la vigilance.
Pièges technologiques et désinformation
Le tri de l’information par les algorithmes, la personnalisation de contenu, le vide de données, la bulle informationnelle, le partage instantané sont les pièges technologiques qui, bien souvent, confirment nos croyances. L’information que nous voyons ou à laquelle nous prêtons attention n’est pas forcément représentative de la réalité, mais est triée selon des modalités propres à l’environnement Web.
Si ça confirme ce que je pense, ça doit être vrai ! (vidéo)
Des recherches en psychologie démontrent notre tendance à rechercher l’information qui confirme nos pensées. Notre cerveau effectue des raccourcis pour faciliter nos choix et décisions, surtout dans un environnement surchargé d’informations. Ainsi, nos biais cognitifs peuvent être responsables de notre mauvais traitement de l’information. Il est donc parfois nécessaire de se distancer de nos croyances et préjugés pour éviter de se laisser influencer par de fausses informations.
Trucs de pro pour vérifier l’info (vidéo)
Les journalistes vérificateurs de faits font un travail approfondi et font plus que remonter à la source d’une information, à l’identification de son auteur et du média. Recouper les sources, faire une recherche avec les mots-clés à partir de références trouvées sur Wikipédia sont des aspects incontournables de la recherche parallèle lorsqu’on veut établir la validité d’une organisation ou d’une personne.
#VraimentVrai – Comment vérifier l’information (vidéo)
Une série de 4 capsules vidéo avec des journalistes spécialisés en science qui partagent leurs réflexions sur leur métier et les astuces pour vérifier l’information. Quatre thèmes distincts, mais liés sont abordés : la vérification de l’information, la prise de conscience de nos raccourcis mentaux, les algorithmes des réseaux sociaux, et le discernement des opinions.
Médias d’information
Le 27 septembre 2019, Journalistes pour les droits humains (JDH) a annoncé le lancement de son dernier programme intitulé : « Lutter contre la désinformation par le renforcement des médias et l’état de préparation des citoyens au Canada ». Ce projet est soutenu par Patrimoine canadien et vise à former les journalistes à adéquatement identifier la désinformation en ligne et à également intervenir auprès du grand public pour développer le sens critique à l’égard des contenus d’information numériques.
Philippines election : ‘Politicians hire me to spread fake stories’ (Anglais)
En mai 2022, la campagne présidentielle aux Philippines a donné lieu à une véritable campagne de désinformation. Des consultants marketing sur les réseaux sociaux sont payés par des candidats pour mener une véritable offensive visant à salir l’image de leurs opposants par la création de faux profils, la propagation de fake news, le détournement d’images, la création de propagande sur des groupes Facebook. Même si en contrepartie des mouvements importants d’action contre la désinformation ont vu le jour et que les plateformes comme Facebook, Twitter, Youtube et What’sApp ont supprimé beaucoup de comptes douteux, il semble que ces efforts ne soient jamais suffisants pour en venir à bout.
Infocalypse : la propagation des hypertrucages menace la société
Une équipe de chercheurs et d’étudiants en éducation en technologie éducative et en design de l’Université Laval et de l’Université Concordia s’est penchée sur la notion d’agentivité numérique pour contrer le phénomène des deepfakes. Cette voie mise sur le développement des compétences des citoyens pour faire face aux phénomènes de désinformation et a l’avantage de l’attaquer à sa source. De plus en plus de mouvements citoyens et associations mènent des actions de sensibilisation dans ce sens. La formation aux enjeux posés par les nouvelles technologies numériques est une voie incontournable pour favoriser la résilience. Elle doit accompagner d’autres mesures, telles que la législation, les politiques des plateformes numériques, la technologie de détection.
Médias jeunesse
Comment combattre la désinformation
L’équipe des décrypteurs est spécialisée dans la chasse aux fausses informations qui circulent sur les réseaux sociaux. Ce site ludique et interactif s’adresse aux jeunes pour les sensibiliser aux dangers de la désinformation amenés par la technologie, tout en faisant usage de celle-ci. Un robot conversationnel entame une discussion avec le visiteur afin de l’initier aux méthodes de détection des vidéos falsifiées, au principe de détournement des images par la décontextualisation, aux robots, et à la rapidité de propagation des fausses nouvelles.
Survivre au web (même quand on est aveugle) (balados)
Le guide de survie des Débrouillards est un ensemble de balados scientifiques pour les jeunes. Dans cette capsule, une petite histoire du Web depuis 1990 est racontée. Même si internet permet à des artistes de déployer leur inventivité, il regorge de dangers: sécurité informatique, violation de la vie privée, chambres d’échos sur les réseaux sociaux. Les auditeurs pourront mieux comprendre les fonctionnements du Web et ses aspects cachés et recevoir quelques conseils d’utilisation afin de déjouer l’algorithme de recherche.
Un résumé simple et concis conçu par Médias d’info Canada pour aider les jeunes à développer leurs compétences médiatiques. L’outil VRAI détaille les quatre étapes pour valider une information: vérifier la source, juger de l’objectivité de la source, chercher d’autres sources, vérifier la date de l’article. D’autres ressources web sur la manière d’éviter de propager de fausses nouvelles sont mises à disposition.
Vérifié ! (vidéo)
Vérifier la source d’une information, son auteur, distinguer une opinion d’un fait, se distancer de ses émotions. Les étapes du parfait vérificateur de faits sont retracées et expliquées en 5 capsules pour les jeunes de 8 à 12 ans.
Revenues scientifiques
Facebook favorise-t-il la désinformation et la polarisation idéologique des opinions ?
Contrairement aux algorithmes des moteurs de recherche d’internet, Facebook permet aux utilisateurs d’accéder à des médias et des courants de pensée diversifiés grâce au partage. Cependant, ce n’est pas le cas avec l’adhésion aux groupes fermés, car, au lieu d’exposer l’utilisateur à une pluralité de courants de pensée, elle le maintient dans une bulle fermée et construite par ses informateurs, souvent affiliés à la même lignée politique que lui. Ce phénomène est particulièrement observable dans les groupes Facebook à tendance populiste d’extrême-droite. Cet article interroge l’apport réel des plateformes comme Facebook et des espaces de discussion fermés dans le débat démocratique. Les médias alternatifs ne risquent-t-ils pas, au contraire, de contribuer à la polarisation des débats et à la désinformation?
Aider les citoyens à mieux s’informer
Ce regroupement de journalistes professionnels se donne pour mission d’aider le grand public à mieux s’informer et à prendre conscience de l’importance des médias pour participer aux débats démocratiques. Les formations en ligne et en présentiel proposent d’outiller le public aux techniques de vérification des fausses nouvelles sur le web ou les réseaux sociaux.
Comment valider la qualité d’une information avant de la partager sur internet? Les vidéos et les fiches-conseils réalisées par HabiloMédia s’adressent à un public de tous âges et contiennent des indications précises sur la démarche de vérification de l’information. Certaines fiches préviennent des conséquences importantes de la désinformation sur la société et comment nous pouvons tous en être des agents à notre insu.
Le Récit offre du soutien et de l’encadrement au personnel enseignant pour le développement des compétences des élèves au moyen des technologies.
« Ça se peut ou pas » est une activité, disponible en ligne ou à réaliser en classe, qui permettra à l’enseignant de mettre à profit la démarche scientifique pour valider du contenu web et utiliser les bonnes stratégies de vérification de l’information.
Checkology est une plateforme d’apprentissage en ligne gratuite qui propose des leçons sur des sujets tels que la partialité des médias, la désinformation, la théorie du complot, etc.
Les leçons incluent des références à des événements historiques, des photos et sont commentées par des journalistes spécialisés. L’objectif est d’apprendre au public à identifier des informations crédibles, rechercher des sources fiables et à développer un esprit critique afin de distinguer le vrai du faux des informations.
Le Stanford History Education Group (SHEG) est un groupe de recherche et développement de la Graduate School of Education de Stanford. Le site COR est une ressource conçue pour les enseignants afin de les aider à enseigner les méthodes journalistiques d’identification de la désinformation dans les médias en ligne. Les objectifs sont précisément d’éveiller les jeunes à la citoyenneté numérique et d’améliorer leur capacité à évaluer le contenu en ligne, conditions préalables à une participation démocratique réfléchie dans la société.
Comment sont réalisées les vidéos hypertruquées Deepfake?
En 2020, la revue pour adolescents, Curium, s’était prêtée au jeu du Deepfake. L’objectif était de tester si un non-expert en informatique serait capable de produire un résultat convaincant avec des logiciels et un ordinateur accessibles au grand public. Le résultat surprenant a de quoi nous inquiéter pour l’avenir…
CTRL-F est un programme éducatif pancanadien développé par CIVIX afin d’ aider les enseignants à transmettre à leurs élèves des compétences en littératie numérique. Il s’adresse aux jeunes du secondaire et du cégep et s’intègre aux programmes de cours généraux. Il consiste à apprendre à évaluer l’exactitude d’une information, à juger de la véracité d’une image et à développer des compétences de lecture latérale par le recours à des informations contextuelles.
Des conseils pour vérifier les images en ligne
L’École branchée propose des ressources aux enseignants souhaitant développer des activités pédagogiques par le numérique. Dans ce dossier, on trouvera des explications autour d’une pratique saine à l’égard de l’information circulant sur les réseaux sociaux : douter, vérifier la source et vérifier la source d’une image sur le web. Des tutoriels pour apprendre à utiliser Google Image et Google Lens indiquent comment trouver des indices sur la provenance d’une image.
Entre information et désinformation : comment démêler le vrai du faux
L’école branchée a réalisé un dossier complet avec des activités à l’intention des enseignants pour apprendre aux jeunes de 2e secondaire les étapes de vérification de l’information. À travers la démarche, les jeunes apprennent à utiliser des outils numériques (quizz, traitement de texte, tutoriels youtube) comme instruments de recherche, à déceler leur limite, mais aussi à exploiter leur potentiel d’apprentissage.
Faux que ça cesse : Comment savoir ce qui est vrai sur Internet
HabiloMédias a conçu un atelier pour les animateurs de jeunes (11 ans et +) sur le thème de la désinformation. Des supports de présentation interactive, avec des exemples à l’appui, permettront aux utilisateurs des médias numériques d’intégrer les éléments de base de cet univers afin de ne pas contribuer à la propagation de la désinformation. L’atelier aborde les sujets suivants : développer les réflexes de vérification des faits, trouver la source d’information et la vérifier avec les outils appropriés, identifier le langage journalistique afin de pouvoir déceler si un article ou un site web sont fiables.
Formation #30 secondes avant d’y croire
Offertes par le CQEMI, les formations #30secondes avant d’y croire, ont pour objectif d’aider les participants à développer leur esprit critique. Elles sont données par des journalistes professionnels dans les établissements ou les organismes qui en font la demande et permettent au public de découvrir les techniques de vérification des faits utilisées par les journalistes dans le cadre de leur profession.
International fact-checking network
L’Institut Poynter, voué à la formation et à la recherche en journalisme, a lancé en 2015 un programme pour le développement d’un réseau international de vérification des faits. Des bourses, des programmes de formation, des conférences soutiennent cette initiative visant à développer une communauté mondiale de vérificateurs de faits. Une équipe suit les nouvelles tendances dans le domaine afin d’offrir des ressources à jour aux journalistes pour mieux lutter contre la désinformation.
Introduction aux fausses nouvelles, viralité et impacts
Présentation d’une formation de 60 minutes offerte par le CQEMI dans les établissements scolaires ou autres organismes communautaires afin d’outiller les jeunes à la vérification des informations.
La désinformation à propos de la santé et des sciences
Habilo Média a réalisé une fiche descriptive des aspects de la désinformation sur les sciences et la santé. Certains arguments et discours sont facilement détectables si l’on en connaît les codes. Le recours à des témoignages, des experts douteux, des affirmations basées sur la promotion et la vente de produits sont quelques stratégies employées dans ces informations et il importe de les analyser avec distance.
Quiz: Should you share it? (Anglais)
Ce quiz réalisé par le News Literacy Project permet à l’utilisateur de tester ses capacités à analyser la fiabilité d’une information. On apprend à juger différentes publications qui, même si elles semblent authentiques, sont des manipulations ou proviennent de sites peu fiables. Ce site a pour objectif d’aider les enseignants ou le public en général à améliorer leur littératie en matière d’information numérique.
Third annual national news literacy week (Jan. 24-28, 2022)
Du 24 au 28 janvier 2022, le News Literacy Project a tenu un événement annuel pour célébrer le rôle vital de la culture de l’information dans une démocratie. Il visait à inciter les consommateurs d’informations, les éducateurs et les étudiants à mettre en application les bonnes pratiques d’analyse des produits d’information.
Vérifier les nouvelles en ligne
Un dossier complet destiné à ceux qui veulent comprendre le fonctionnement de l’information en ligne, avec quelques fiches et ateliers pour les enseignants. Il dresse un portrait de l’industrie de l’information au Canada, de ses consommateurs et comment ils ont évolué. À quelles sources peut-on se fier et comment vérifier l’information ?
L’École des réseaux sociaux propose aux parents et enseignants des activités et des sujets de discussion pour éveiller les jeunes du primaire aux risques et dérives existant sur internet.
Sur quels types de contenus peut-on tomber ?
L’École des réseaux sociaux propose un jeu pour éveiller le jeune public aux enjeux et aux défis amenés par la vie sociale en ligne. Comment correspondre avec ses amis ? À quels comportements s’attendre ? Comment protéger ses données, que partager ou ne pas partager ? Quelques personnages animent un parcours où l’enfant pourra progresser en débloquant des cartes à mesure que les sujets sont abordés avec le parent ou l’enseignant.
Comportements positifs et proactifs
Le lien envoie vers une page intitulée comportements positifs et proactifs
Des activités et des sujets de discussion permettent aux parents ou aux éducateurs d’initier les jeunes à l’importance d’adopter des comportements positifs en ligne. Les thèmes abordés portent sur la vérification des informations, la sécurité et la protection de la vie privée. Les parents trouveront des conseils sur l’installation de logiciels de contrôle des types de sites Web visités par leurs enfants.
La propagation des fausses nouvelles et l’invasion d’une information de piètre qualité sur les réseaux sociaux a suscité la mise en branle d’une série d’actions à caractère pédagogique pour la prévention de la désinformation et l’éducation aux médias. Cependant, ces actions sont-elles efficaces ? Ont-elles les répercussions attendues chez les jeunes ? Le Centre d’études sur les médias a mis en place une expérience sur 500 utilisateurs québécois afin d’évaluer l’efficacité d’un outil vidéo pour développer l’esprit critique envers les médias numériques chez les jeunes en milieu défavorisé.
Portrait d’une infodémie Retour sur la première vague de COVID-19
Ce rapport de 95 pages produit dans le cadre des travaux de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), replace les acteurs qui ont joué un rôle important dans la production et la circulation de l’information durant la première vague de COVID-19 au Québec (2020). Il évalue le rôle de chacun (experts, journalistes, médias, acteurs publics) et tire les leçons de la crise dans le but de mettre en place un cadre global de lutte contre la désinformation. Comment améliorer la qualité de l’information dans un contexte numérique ? En quoi l’intelligence artificielle peut-elle aider ?
Evaluating Photos & Videos : Crash course navigating digital information #7
Crash Course conçoit des vidéos éducatives sur divers sujets tels que la science, l’histoire, la politique ou les grands enjeux de société. Les capsules sont réalisées dans un langage clair et sont illustrées par des exemples afin de permettre à un large public de mettre ses connaissances à jour sur un sujet en particulier. Dans cette vidéo, on s’interroge sur le potentiel des images pour informer de la réalité. Les photos, tout comme les vidéos peuvent être facilement utilisées pour produire de la désinformation: trucage, fausses légendes, deep fakes. On montre comment remonter à la source d’une image ou d’une vidéo et quels réflexes développer face à l’information.
Introduction to Crash Course Navigating Digital Information #1
Comment s’y retrouver dans l’information numérique ? En partenariat avec Mediawise et le Stanford History Education Group, Crash Course a réalisé en 2019 une série de 11 vidéos abordant chacune un aspect particulier de l’information dont voici quelques thèmes abordés : le fact checking, la vérification des photos et des vidéos, la lecture latérale des informations, l’utilisation de Wikipédia.
Les fakes news dans les médias du Québec : perceptions des journalistes (Mémoire de maîtrise en communication de Mathieu-Robert Sauvé)
Cette étude présentée en 2019 porte sur la propagation des fausses informations dans la société québécoise. Elle a été réalisée à partir des résultats d’un sondage mené auprès de journalistes québécois et de rédacteurs en chef de médias québécois. Les journalistes interrogés soulèvent l’importance de ce problème grandissant et la nécessité de former les jeunes générations à s’en protéger.
October 2020: Misinformation, Disinformation, Hoaxes, and Scams
Campus Security Awareness Campaign 2020
Educause est un magazine en ligne consacré aux domaines de l’information et des technologies dans le monde de l’éducation. Cet article explique comment se prémunir de la désinformation, et comment améliorer son sens critique, et suivre les étapes de vérification de l’information afin d’éviter de partager de fausses informations. Il livre une série de liens où les utilisateurs trouveront des outils pour se protéger de la désinformation sur les réseaux sociaux.
Le PDCI, un répertoire de ressources pour le réseau universitaire du Québec, a conçu à l’intention des bibliothécaires ou des enseignants un outil d’exploration de toutes les facettes de l’information, en partant de sa source, en passant par son élaboration et jusqu’à son échange. En effet, avant de pouvoir comprendre les enjeux liés à la désinformation, il faut comprendre tous les aspects reliés à sa fabrication.
Fighting Misinformation About Coronavirus
Le NAMLE, un organisme dédié à l’éducation à la littératie numérique, livre une série de liens dirigeant vers des blogs, vidéos ou articles portant sur la désinformation et la pandémie de coronavirus. Des sections incluent des ressources pour le milieu éducatif.
Slowing The Infodemic : How to Spot COVID-19 Misinformation (link1)
(link 2) – Slowing The Infodemic – How To Spot COVID – 19 Misinformation Podcast
(link 3) – Slowing the Infodemic: How to Spot COVID-19 Misinformation – Classroom Guide for High School and Post-Secondary Educators
Pour faire face à la désinformation grandissante durant la pandémie de COVID-19, Thomson Reuters et la National Association for Media Literacy Education (NAMLE) se sont associés pour fournir aux enseignants du secondaire et du postsecondaire des ressources pédagogiques. Une capsule vidéo, un podcast et un guide pédagogique permettront aux jeunes d’acquérir des compétences dans la critique et la vérification des messages médiatiques.
Comment reconnaître une fausse nouvelle ?
À quoi reconnaît-on une fausse nouvelle ? Comment retracer son origine ? Dans cette présentation interactive, l’illustratrice Élise Gravel, avec son style et son humour, montre au milieu scolaire du primaire et aux parents, comment en quelques étapes, on peut identifier les fausses nouvelles.
CTRL+F – Ep.3. Le mystérieux deepfake (balado)
Un podcast en 6 épisodes conçu pour le jeune public par Ubisoft Education afin d’expliquer ce qu’est l’intelligence artificielle, la science et les nouvelles technologies. Dans cet épisode, les protagonistes discutent des deepfakes, de ses utilisations, mais aussi des mauvaises intentions liées à leur manipulation et la notion de fakenews. La deuxième partie du podcast aborde les définitions de fausse nouvelle, de mésinformation et de désinformation. Comment s’en prémunir et comment vérifier les informations ?
The Coronavirus Quiz. Misinformation spreads faster than a virus (Anglais)
Digital Public Square est une plateforme qui se consacre au développement de produits numériques et à la promotion de pratiques éthiques et saines de ces produits. Les interventions de DPS se réalisent par la recherche, le développement et le design ou encore par le marketing social. DPS a conçu un jeu simple destiné à contrer les tendances de la mésinformation sur la COVID-19. Au fur et à mesure que les participants évoluent dans le quiz, on leur présente des réponses réelles, vérifiées par des faits, qui démystifient les informations erronées sur le COVID-19 communément partagées.
Vous doutez ? Vérifiez. Remettez en question
Comment vérifier une déclaration, sa source, une image ? Actufuté détaille clairement et par quels outils effectuer ces 3 étapes de validation. L’utilisateur est invité à tester ses connaissances au moyen d’un jeu monté à partir de vraies fausses nouvelles.
Voici deux formes d’intelligence indissociables, et si l’une semble prendre toute la place, notre prochain défi sera de rapporter la seconde au côté de son binôme afin que nous puissions reprendre le contrôle de nos circuits d’information. Combattre le mal par le mal ne sera pas l’unique solution, car derrière toute intelligence artificielle, il y a aussi une intelligence humaine.
Defense Advanced Research Projects Agency (Anglais)
Semantic Forensics Program (Anglais)
Uncovering the Who, Why, and How Behind Manipulated Media (Anglais)
L’évolution des technologies permet à n’importe quel individu de produire des contenus truqués ou falsifiés (Deepfakes). Le DARPA (La Defence Advanced Research Projects Agency) a mis en place le programme SemaFor afin de soutenir la recherche en développement de systèmes automatisés de détection de médias falsifiés. Basées sur différents algorithmes, ces nouvelles méthodes de détection pourront faciliter la recherche de l’auteur ou l’organisation derrière un média, ainsi que l’identification de ses méthodes et intentions.
Médias & revues scientifiques
A Survey on Deepfake Video Detection (Anglais)
Les technologies disponibles aujourd’hui pour manipuler des fichiers afin de détourner la voix ou l’image d’une personne sont à la portée de n’importe qui et peuvent être utilisées à des fins malveillantes. Les chercheurs devront dans un avenir proche améliorer les systèmes de détection de ces contenus et travailler sur différents paramètres pour améliorer la performance des algorithmes de recherche. Actuellement ces technologies présentent des faiblesses lorsqu’elles doivent distinguer les vraies et les fausses vidéos ou quand ces dernières sont de mauvaise qualité.
Comparison of Deepfake Detection Techniques through Deep Learning (Anglais)
Cet article scientifique présente l’état d’avancement des technologies du Deep Learning (apprentissage automatique) et des diverses méthodes de détection des deepfakes (images ou vidéos manipulées). La recherche et l’analyse comparative des données dans la littérature scientifique sont naissantes et il est important de les compiler étant donné la multiplication rapide des méthodes de création de ces deepfakes. Cette démarche est importante pour soutenir le développement d’une technologie de plus en plus fiable et efficace dans la détection des médias manipulés sur les réseaux sociaux.
Deepfake detection by human crowds, machines, and machine-informed crowds (Anglais)
La machine n’est pas forcément supérieure aux facultés humaines pour détecter les médias manipulés. Face à la diversité de ces produits, il arrive que l’homme excelle là où la machine échoue et vice-versa. La prise en compte du contexte est par exemple un élément que la machine ne peut intégrer. Il faudra donc envisager un futur système collaboratif homme-IA incluant les performances des humains et des machines pour une détection des deepfakes, ce qui implique une prise en compte non seulement des indices perceptifs, mais aussi du contexte plus large d’une vidéo pour déterminer si son message ressemble à un mensonge.
From Deepfakes to TikTok Filters : How do You Label AI Content? (Anglais)
Dans un avenir proche, il se pourrait qu’une norme impose aux applications de modification d’images qu’elles affichent la source du fichier d’origine et son caractère falsifié. Cet article propose un tour d’horizon des méthodes actuellement utilisées pour indiquer qu’un média a été modifié.
How to Share the Tools to Spot Deepfakes (Without Breaking Them) (Anglais)
Les systèmes automatisés de détection des images falsifiées peuvent-ils être les garants de la vérité en ligne ? En effet, ces outils sont utilisés par les grandes plateformes de médias, mais ne sont pas utiles pour le grand public. PAI, en collaboration avec WITNESS, une organisation à but non lucratif qui utilise la vidéo et la technologie pour les droits de l’homme, a interrogé lors d’un atelier, l’avis de professionnels des médias sur le potentiel des détecteurs de médias manipulés. La synthèse de ces rencontres conclut que les développeurs de ces systèmes ont aussi pour tâche de fournir la formation adéquate aux journalistes et aux vérificateurs de faits sur la bonne utilisation de ces systèmes, ainsi qu’une connaissance de leur limite.
Vidéo : Dans la lutte contre les deepfakes, Facebook a une solution à base d’IA (vidéo)
Des scientifiques de Facebook ont mis au point un logiciel basé sur la rétro-ingénierie afin de déconstruire la fabrication d’une image ou d’une vidéo. Ce système a pour objectif de détecter des vidéos qui auraient été falsifiées au montage.
Médias d’informations
Les géants de la technologie lancent le « deepfake challenge » pour contrer la désinformation
En 2019, des entreprises comme Microsoft, IBM, Apple, Amazon ont commencé à rassembler des chercheurs du Massachusetts Institute of Technology (MIT), avec le financement important de Facebook, afin de plancher sur le développement de technologies pouvant détecter des vidéos modifiées au moyen de l’intelligence artificielle. Les dangers et les méfaits de ce genre de ces vidéos truquées commençaient à alerter une communauté scientifique qui voyait l’importance de mettre à disposition des utilisateurs des moyens pour détecter ces produits.
Ressources pédagogiques
Hypertrucage : De la désinformation à l’hyperpersonnalisation
L’École branchée a constitué un dossier pour aider les enseignants à aborder le phénomène de l’hypertrucage en classe. Il détaille les étapes de vérification des fausses nouvelles, la pensée critique, les problèmes posés par l’utilisation des deepfakes. Après avoir dressé une définition et une contextualisation du problème, il livre une série de liens vers des médias spécialisés pour la jeunesse qui ont rassemblé des ressources pédagogiques numériques sur le sujet.
Le deepfake : Rupture ou continuité ?
Une formation en ligne pour les enseignants du secondaire offerte par l’EMI de l’Université de Lyon pour aborder le sujet des deepfakes avec des élèves. Elle contient des propositions de discussion illustrées de vidéos, des capsules explicatives expressément conçues par les étudiants et quelques extraits de cas d’hypertrucages circulant sur les réseaux sociaux. La formation évolue en trois étapes : se faire son propre jugement, les opportunités de communications apportées par l’utilisation des deepfakes et les aspects juridiques. Des ressources pédagogiques et un quiz sont également disponibles.
What Parents Need to Know about Deepfakes (Anglais)
Un document réalisé par la direction d’une école primaire à l’intention des parents afin de les informer des dangers potentiels des deepfakes pour leurs enfants. L’usage mal intentionné de ces images peut avoir des répercussions sur le jeune public. Apprendre à détecter les médias tronqués, s’assurer de préserver sa vie privée sur les réseaux sociaux, sont des gestes qu’il est important d’introduire aux jeunes pour les protéger de ces menaces.
Recherche universitaire
A New Approach to Improve Learning-based Deepfake Detection in Realistic Conditions (Anglais)
Les premiers appareils de détection de deepfakes ont jusqu’à présent montré des défaillances pour opérer de manière efficace dans des situations de compression ou de distorsion d’images. Cet article fait part de nouvelles techniques d’évaluation de modèles de détection d’images dans un cadre plus réaliste avec la possibilité d’améliorer les capacités d’analyse de ces modèles.
Detecting Deepfake Videos : An Analysis of Three Techniques (Anglais)
Pour lutter contre la propagation de la désinformation, les chefs d’entreprise et les chercheurs ont manifesté un intérêt croissant pour le développement d’approches informatiques permettant de détecter les deepfakes. Cet article présente trois techniques et algorithmes testés : LSTM convolutif, détection des clignements des yeux et histogrammes en niveaux de gris. La technique des histogrammes en échelle de gris, qui présente les meilleurs résultats, est alors celle qui devrait être privilégiée pour lutter contre les faux médias.
Detecting Deep-Fake Videos from Appearance and Behavior (Anglais)
Cet article de 2020 fait état du développement prometteur d’une technologie capable de détecter les médias hypertruqués. Basée sur la biométrie, cette technique combine une approche de reconnaissance faciale à une méthode d’apprentissage du comportement corporel.
Human Detection of Political Deepfake across Transcripts, Audio, and Video (Anglais)
L’étude présentée par cet article propose d’évaluer comment la vidéo peut affecter la capacité de discernement du contenu d’un discours politique. En effet, la création de fausses vidéos de plus en plus réalistes pose un problème grave car leur contenu mensonger a plus de chances d’être cru en raison du fait qu’il est véhiculé par une vidéo. Cette recherche a permis de révéler que d’autres éléments influencent la perception d’une vidéo et le jugement à son égard. L’adhésion du spectateur au contenu du discours peut affecter la perception des indices visuels de fabrication.
ID-Reveal : Identity-aware DeepFake Video Detection (Anglais)
La détection des vidéos hypertruquées présente un enjeu majeur, car les systèmes automatisés sont assez peu fiables sur certains types de falsification. ID-Reveal est une nouvelle méthode de détection de fausses vidéos qui semble prometteuse et efficace sur des vidéos présentant des défauts et qui sont fortement compressées.
The Presidential Deepfakes Dataset (Anglais)
Cet article présente les résultats d’une évaluation des techniques de détection de deepfakes. Le PDD (Presidential Deepfake Dataset), qui se compose de 32 vidéos, dont la moitié sont des vidéos originales et l’autre moitié sont manipulées, tente d’élargir et de diversifier les contextes d’évaluation afin d’améliorer les performances de détection de vidéos manipulées. Les résultats de recherche ici présentés s’avèrent plus performants que le DeepFake Detection Challenge (DFDC) dataset qui a présenté un taux important d’erreur.
Deepfake Detection Challenge (DFDC) (Anglais)
Deepfake Detection Challenge Dataset (Anglais)
L’objectif du Deepfake Detection Challenge est d’inciter les chercheurs du monde entier à mettre au point de nouvelles technologies innovantes permettant de détecter les médias manipulés. Le DFDC a permis à des experts du monde entier de se réunir, de comparer leurs modèles de détection des médias de synthèse, d’essayer de nouvelles approches et d’apprendre du travail des autres.
Deepfakes: Why you can’t believe everyhing you see and hear (Anglais)
Tout média peut être reproduit de manière réaliste grâce à un algorithme. La technologie du deepfake nous emmène vers un monde autre, où la créativité sera illimitée. Bientôt, il sera probablement impossible de faire la distinction entre un vrai et un faux média. Les créateurs portent une responsabilité importante et doivent prendre conscience de ce pouvoir et l’utiliser à bon escient.
Detect Fakes (Anglais)
Testez vos capacités à reconnaître un deepfake. La qualité des médias de synthèse peut varier et certains peuvent être plus facilement perçus que d’autres. En effet, les algorithmes s’appuient sur différentes techniques de manipulations des vidéos et des sons. Des systèmes de détection automatisés peuvent-ils être plus efficaces que les humains dans ce travail de recherche ? Comment la technologie peut dépasser l’intelligence humaine, afin de la compléter, collaborer et pas forcément la remplacer ? Ce site tente d’offrir un large spectre de ces possibilités pour aider les utilisateurs à déceler les nuances. Ces deepfakes proviennent de la base de données Kaggle’s Deepfake Detection Challenge (DFDC).
Disrupting DeepFakes: Adversarial Attacks Against Conditional Image Translation Networks (Anglais) (Podcast)
Nataniel Ruiz présente ses recherches sur la possibilité de contrer les dommages créés par la technologie des deepfakes. Ses essais consistent à injecter du bruit dans une image afin de perturber la capacité d’un modèle génératif à manipuler la dite image. Son objectif serait de bloquer définitivement toute tentative de transformer une image. Au cours de la discussion, il évoque certaines difficultés reliées à la mise en œuvre de ce travail et quelques scénarios potentiels dans lesquels il pourrait être déployé.
Fake videos of real people – and how to spot them (Anglais) (vidéo)
La technologie d’aujourd’hui permet de recréer une personne à partir de photos et vidéos existantes. Il serait même possible de ramener à la vie des personnes publiques décédées. Si cette technologie semble infiniment porteuse, elle peut également causer énormément de dommages. Les chercheurs devront assumer cette responsabilité et en contrepartie développer les mêmes technologies pour combattre leur propre travail, c’est-à-dire une intelligence artificielle combinée à l’intelligence humaine pour détecter ces vidéos modifiées.
Global Desinformation Index (GDI) (Anglais)
*Blog « Read Now (Anglais)
GDI est un organisme de surveillance de la désinformation sur internet. Il agit pour les annonceurs publicitaires, les communicateurs scientifiques, les chercheurs, sociétés de médias sociaux au moyen de l’intelligence artificielle ou par un travail journalistique approfondi. GDI est aussi un intermédiaire pour les plateformes numériques et les gouvernements dans la mise en place de règles et politiques de régulation de diffusion de l’information.
It matters how platforms label manipulated media. Here are 12 principles designers should follow (Anglais)
PAI étudie quelle serait la meilleure méthode pour les plateformes numériques ou pouvoirs publics pour lutter contre l’invasion de médias manipulés ou la désinformation. L’application d’étiquettes et le marquage visuel de médias douteux serait une voie à explorer parmi d’autres mais qui présente de nombreux inconvénients. PAI rassemble suite à de nombreuses recherches effectuées auprès des experts de l’industrie technologique, une panoplie de propositions et de suggestions qui pourraient être testées et appliquées selon les contextes propres aux plateformes numériques.
Réduire les vulnérabilités aux manipulations de l’information
Un site français qui recense et analyse les cas de désinformation dans l’actualité mondiale. Il propose une série d’outils pour renforcer tous les acteurs publics, privés et de la société civile qui luttent contre les manipulations de l’information.
Scan & Detect Deepfake Videos (Anglais)
Deepware est un site permettant aux utilisateurs de scanner une vidéo et de détecter si elle a été fabriquée.
The Deepfake Detection Challenge : Insights and Recommandations for AI and Media Integrity
À la suite du Deepfake Detection Challenge, le PAI (Partnership on AI) a rassemblé six idées clés et recommandations à l’intention des acteurs politiques, journalistes, organismes afin de mieux lutter contre l’utilisation des médias de synthèse. Les outils de détection doivent être développés selon les contextes dans lesquels ils seront utilisés.
Il existe encore beaucoup de vide juridique concernant l’usage malintentionné des deepfakes. La prise de conscience de l’éthique autour du recours à ces médias et de leurs effets dévastateurs dans la vie privée n’est qu’à ses débuts. La lenteur de l’évolution des règles juridiques est en décalage important avec la rapidité des développements technologiques et les mesures prises ont encore peu d’effets.
Doit-on interdire la circulation des deepfakes ?
Des mesures légales pour réglementer ou sanctionner la diffusion de contenus d’information modifiés au moyen de l’intelligence artificielle commencent à voir le jour. Des chercheurs développent des systèmes automatisés capables d’identifier la validité d’une source d’information. Des questions découlent de ces pratiques. Ne risquent-elles pas de devenir trop coercitives et limiter la liberté d’expression ? Peut-on complètement se fier à des technologies robotisées pour effectuer ce dépistage ? L’éducation aux bonnes pratiques numériques et au développement du regard critique reste avant tout le meilleur moyen de contrer la désinformation en ligne.
Hypertrucage* : Que peut-on faire à propos du contenu audio et vidéo de synthèse ?
La législation canadienne actuelle dispose de quelques outils pour recourir contre les auteurs de vidéos falsifiées et hypertruquées dans le cas où elles porteraient atteinte à l’intégrité de personnes. La loi électorale du Canada peut aussi être invoquée dans le cas où un produit numérique modifié influence le résultat d’une élection. En 2018, le Centre canadien pour la cybersécurité a recommandé que les plateformes numériques prennent des mesures pour lutter contre la propagation de vidéos modifiées dans des intentions malveillantes et pouvant troubler le processus normal d’une élection.
L’approche multipartite : Recueil sur la défense des processus électoraux
En 2020, des rencontres internationales ont réuni des experts afin d’échanger au sujet des bonnes pratiques pour les acteurs clés de l’écosystème de l’information en vue de rendre le cyberespace sécuritaire et favorable au processus démocratique. Les technologies, les structures et les méthodes à mettre en place pour protéger le processus électoral et prévenir l’ingérence étrangère malveillante sont explorées à travers des exemples concrets et déjà testés dans le monde.
Le projet de loi C-30 propose des modifications à la loi électorale du Canada afin que soit précisée que la disposition qui interdit les fausses déclarations au sujet de certains acteurs politiques requiert une connaissance que la déclaration est fausse. La modification proposée est un moyen employé par le gouvernement pour lutter contre la désinformation. Par exemple, pour durcir les mesures de transparence dans les publicités en ligne, la loi électorale du Canada exige que les plateformes numériques tiennent un registre des messages publicitaires partisans et électoraux publiés sur leurs plateformes pendant les périodes électorales.
Deepfake : le vrai du faux d’une technologie révolutionnaire
Basé sur l’intelligence artificielle, le deepfake peut être un outil de divertissement avec une dimension créative. Des questions éthiques et juridiques émergent si un visage est utilisé dans un contexte nuisible à son image. Usurpation d’identité, protection de la vie privée, droit à l’image sont des outils juridiques possibles. Cependant, il reste des zones d’incertitude ou il est difficile d’appliquer la loi. Que faire lorsqu’il y a utilisation d’un visage d’une personne décédée? Le droit peut-il s’appliquer dans le cas d’une utilisation d’une image privée et versée dans le domaine public? Comment déterminer la quantité de données utilisées dans un algorithme?
La création des deepfakes ne fait pas que des vagues dans le monde de l’information. Elle apporte une révolution dans le monde de l’industrie créative. L’infolettre de Journalism.design, SYNTH permet de mieux comprendre les enjeux autour des IA génératives et des deepfakes.
Recherche universitaire
Deepfake : New Era in The Age of Disinformation & End of Reliable Journalism (Anglais)
Les nouvelles technologies amènent de nouveaux enjeux au journalisme. La possibilité de faire dire à quelqu’un ce qu’il n’a pas dit est une menace au journalisme. Dans cette ère de désinformation généralisée, il est essentiel de prendre des mesures au niveau politique, légal et technologique pour contrer la menace posée par les deepfakes au journalisme de qualité.
Deep Fakes : A Looming Challenge for Privacy, Democracy, and National Security (Anglais)
Cet article mène une évaluation approfondie des causes et des conséquences de ce changement technologique perturbateur apporté par l’utilisation des hypertrucages.
Quels outils existants et potentiels permettent d’y répondre ? Tour à tour, sont évaluées les solutions technologiques, les sanctions pénales comme la responsabilité civile et les mesures réglementaires, les réponses militaires, les sanctions économiques. Cette étude avance des recommandations pour améliorer les politiques, mais aussi pour anticiper les pièges inhérents aux diverses solutions proposées.
Facing reality? Law enforcement and the challenge of deepfakes (Anglais)
Ce rapport produit en 2022 par le laboratoire d’innovation d’Europol donne un aperçu détaillé de l’utilisation criminelle des technologies deepfake. Il évoque les défis légaux auxquels les pays et les entreprises devront faire face dans un avenir proche. Des mesures réglementaires et des lois devront être déployées pour faire face aux nouvelles menaces des technologies.
How deepfakes undermine truth and threaten democracy (Anglais) (vidéo)
Par Danielle Citron, professeure de droit. Les deepfakes peuvent être utilisés dans le domaine de la création, du spectacle, de l’art, mais ils peuvent être aussi utilisés avec de mauvaises intentions dans un contexte politique. Les utilisateurs devront juger par eux-mêmes si un deepfake est malfaisant, les journalistes et les médias devront aussi être formés à l’existence de ces images falsifiées, tout comme les utilisateurs des réseaux sociaux. Il reste cependant un vide juridique à ce sujet et il est difficile de réprimer les auteurs d’un tel crime.
What Can The Law Do About ‘Deepfake’? (Anglais)
La technologie pour réaliser des vidéos de synthèse évolue beaucoup plus que la jurisprudence. McMillan, une entreprise canadienne spécialisée en droit a rassemblé dans cet article les outils légaux déjà existants pour recourir contre l’usage de deepfakes. La violation du droit d’auteur, la diffamation, la violation de la vie privée, le harcèlement, atteinte aux droits de l’homme peuvent être invoqués pour obtenir des réparations.