Aller au contenu principal

Initiatives pour contrer la désinformation sous forme d’hypertrucage


Aplatissons la courbe de l’infodémie

Article de vulgarisation scientifique sur la désinformation, l’infodémie et sur leur prévention.

« Chaque jour, nous sommes tous exposés à une énorme quantité d’informations relatives à la COVID-19 et toutes ne sont pas fiables. Voici quelques conseils pour faire le tri et enrayer la propagation des fausses informations. »

Groupe cible : Citoyens

Organisation mondiale de la Santé (OMS)

Beware of criminals pretending to be WHO (Anglais)

Les utilisateurs ayant de mauvaises intentions peuvent se créer de faux comptes en falsifiant leur identité ou encore en se faisant passer pour une organisation, une personnalité publique ou autre.

L’Organisation mondiale de la santé veut faire état de ce fait dans l’une de ses publications :

« Les pirates informatiques et les cyber-escrocs profitent de la pandémie de coronavirus (COVID-19) en envoyant des courriels et des messages WhatsApp frauduleux qui tentent de vous inciter à cliquer sur des liens malveillants ou à ouvrir des pièces jointes.

Ces actions peuvent révéler votre nom d’utilisateur et votre mot de passe, qui peuvent être utilisés pour voler de l’argent ou des informations sensibles.Si vous êtes contacté par une personne ou une organisation qui semble être l’OMS, vérifiez son authenticité avant de répondre. »

Groupe cible : Citoyens

Organisation mondiale de la Santé (OMS)

Comment signaler les informations erronées en ligne

Publication de l’OMS regroupant l’ensemble des moyens pour signaler la désinformation en ligne sur plusieurs application telles que : Facebook, YouTube, Twitter, Instagram, WhatsApp, TikTok, LinkedIn, Viber et VK.

« Dans la lutte contre la pandémie de COVID-19, nous sommes confrontés au problème d’une surabondance d’informations au sujet du virus. Certaines de ces informations sont parfois fausses et potentiellement dangereuses.

 Les informations inexactes se répandent vite et largement, de sorte que le public a du mal à distinguer les faits et les conseils vérifiés provenant de sources fiables telles que l’autorité sanitaire locale ou l’OMS.

Cependant, tout le monde peut contribuer à ne pas propager ces informations. Si vous voyez du contenu en ligne qui vous semble faux ou trompeur, vous pouvez le signaler sur la plateforme qui héberge le réseau social concerné. »

Groupe cible : Citoyens

Organisation mondiale de la Santé

Conférence de Munich sur la sécurité

Conférence du 15 février 2020

Groupes cibles : Policitiens, journalistes, citoyens

Organisation mondiale de la Santé

Les nations unies lancent une initiative mondiale pour lutter contre la désinformation

« Lancement de la campagne « vérifié », qui vise à élargir le volume et la portée des informations fiables et précises sur la maladie. »

Groupe cible : Citoyens

Press Release- Nations Unies


Aider les citoyens à renforcer leur pensée critique et leur résilience face aux dangers de la désinformation en ligne

« Patrimoine canadien investira également 19,4 millions de dollars sur 4 ans dans un nouveau programme de recherche sur la citoyenneté numérique afin d’aider les Canadiens à comprendre la désinformation en ligne et ses répercussions sur notre société; et de constituer une base de données probantes qui sera utilisée pour déterminer les mesures à prendre et les politiques à adopter dans ce domaine. Cet investissement permettra également au Canada de participer à une initiative internationale visant à trouver un consensus et à élaborer des principes directeurs sur la diversité du contenu pour renforcer la résilience des citoyens face à la désinformation en ligne. »

Groupe cible : Citoyens

Communiqué de presse – Gouvernement du Canada

Continuum de développement de la compétence numérique; Thème 11: Développer sa pensée critique à l’égard du numérique (p. 30-31)

« Aborder le contenu numérique en faisant preuve de pensée critique de façon à l’évaluer avant de l’utiliser; élaborer son jugement à l’égard du numérique de façon intentionnelle en se basant sur des critères d’analyse rigoureux, en exploitant des ressources numériques et en les comparant entre elles; poser un jugement réflexif sur son utilisation du numérique en faisant preuve d’autocritique; prendre conscience des enjeux liés aux médias, aux avancées scientifiques, à l’évolution de la technologie et à l’usage que l’on en fait pour poser un jugement critique, notamment en ce qui concerne les bénéfices et les limites du numérique. »

Groupes cibles : Personnel scolaire, élèves

Gouvernement du Québec, ministère de l’Éducation et de l’enseignement supérieur

Defense Advanced Research Projects Agency (Anglais)
Semantic Forensics Program (Anglais)
Uncovering the Who, Why, and How Behind Manipulated Media (Anglais)

« Les capacités de manipulation des médias progressent à un rythme rapide tout en devenant de plus en plus accessibles à tout le monde, du simple éditeur de photos à domicile aux acteurs de l’État-nation. La technologie évolue, tout comme la menace pour la sécurité nationale que représentent les manipulations médiatiques convaincantes. Si le problème actuel est celui des vidéos Deepfake, la capacité de générer des ressources multimodales falsifiées – telles que des articles d’actualité avec des photos et des vidéos intégrées – à partir de rien n’est peut-être pas loin. Pour faire face à cette menace croissante, la DARPA a créé le programme SemaFor (Semantic Forensics). SemaFor vise à donner aux analystes l’avantage dans la lutte contre la fraude. » – (Traduction libre)

Groupes cibles : Médias, citoyens

US Department of Defense

Désinformation : quelles solutions ? (webinaire)

« Le phénomène de la désinformation, incluant les théories du complot, semble avoir pris de l’importance avec la crise sanitaire. L’information scientifique ne fait pas exception. Dans ce contexte, les effets de la désinformation peuvent se faire sentir sur l’adhésion ou non aux consignes de santé publique et à la vaccination. D’autres enjeux de société, tels les changements climatiques font l’objet de désinformation. Que peuvent faire la communauté scientifique, les grands médias et les acteurs influents sur les médias sociaux pour faire contrepoids à la désinformation ? Quelles sont les solutions à court, moyen et long terme pour « aplatir » la courbe de la désinformation ? »

Groupes cibles : Chercheurs, citoyens, journalistes

Fonds de recherche de Québec – Nature et technologies, santé, société et culture

Doit-on interdire la circulation des deepfakes ?

« À compter du 1er janvier 2020, une réglementation entrera en vigueur en Chine pour contrer la propagation de fausses nouvelles et de vidéos modifiées par le truchement de l’intelligence artificielle (les deepfakes). Il sera interdit d’employer les outils de l’intelligence artificielle pour créer des fausses nouvelles et les diffuser, à moins d’aviser clairement que le contenu est trompeur ou a été manipulé. Parmi les arguments invoqués pour justifier cette mesure, on mentionne le risque que ces technologies posent pour l’intérêt public. »

Groupe cible : Citoyens

Commission de l’éthique en science et en technologie (CEST)

Éducation aux médias et à l’information

« […] L’EMI n’a donc pas à proprement parler un objet ; elle vise à éclairer le paysage informationnel dans lequel évoluent les élèves – enfants, adolescents, jeunes adultes-, qu’il s’agisse de leurs relations au monde de l’école, de leurs relations interpersonnelles ou sociales, enfin de leur ouverture au monde des adultes chargés de les accueillir et qui déjà, au plan des médias et de l’information, exerce son emprise sur eux. Ce vademecum clarifie les concepts fondateurs de l’EMI, précise son ancrage dans l’ensemble des disciplines et propose des pistes utiles pour sa mise en œuvre pédagogique en lien avec le projet d’école ou d’établissement. »

Groupes cibles : Élèves, enfants, adolescents, jeunes adultes

Ministère de l’Éducation nationale, de la Jeunesse et des Sports

Évènement « Combattre la désinformation au Québec » (webinaire)

« LaSciencedAbord est une initiative nationale œuvrant avec un collectif de scientifiques indépendant·e·s, de chercheur·e·s, d’expert·e·s en soins de santé et de communicateur·ice·s scientifiques. Nous partageons les meilleures données scientifiques disponibles de façon créative afin de mettre un terme à la diffusion de la désinformation. »

Groupes cibles : Chercheurs, citoyens, journalistes

Fonds de recherche du Québec – nature et technologies, santé, société et culture

Forum sur la lutte contre la désinformation- Parler de science dans l’espace public : facile ? (webinaire – Partie 1)
(webinaire – Partie 2)

« Le 7e forum organisé par les Fonds de recherche du Québec et le Palais des congrès de Montréal portera sur le phénomène de la désinformation. Exacerbée par le développement des médias sociaux et alimentée par des crises ou préoccupations de société, qu’elles soient sanitaires, environnementales, identitaires ou autres, la désinformation constitue un obstacle au développement d’une société et d’une économie du savoir. »

Groupes cibles : Chercheurs, journalistes, citoyens

Fonds de recherche du Québec – Nature et technologies, santé, société et culture

Hypertrucage* : Que peut-on faire à propos du contenu audio et vidéo de synthèse ?

« La communauté juridique canadienne a lentement commencé à s’intéresser à la façon dont le droit canadien peut s’attaquer à l’utilisation potentiellement malveillante de la technologie de permutation intelligente de visages. »

Groupe cible : Citoyens

Parlement du Canada

La désinformation en ligne: initiative de citoyenneté numérique

« L’Initiative de citoyenneté numérique soutient la démocratie et la cohésion sociale au Canada en faisant la promotion d’un écosystème d’information fiable, diversifié, sûr et exempt de désinformation et de contenu illégal, y compris les discours haineux. L’initiative vise à renforcer la résilience des citoyens face à la désinformation grâce à des activités et des programmes d’éducation à la citoyenneté, aux nouvelles et aux médias numériques qui sont offerts par des
tiers. »

Groupe cible : Citoyens

Gouvernement du Canada

L’approche multipartite : Recueil sur la défense des processus électoraux

« Les partisans de l’Appel de Paris se sont engagés à travailler ensemble pour adopter un comportement responsable et assurer un cyberespace sécuritaire, en se fondant sur un ensemble de neuf principes communs. » « La présence de désinformation dans un environnement électoral, est souvent indicatrice de la présence de menaces hybrides à plus grande échelle. »

Groupes cibles : Citoyens, politiciens

Gouvernement du Canada

Projet de loi C-30

La Cour reconnait « l’importance de s’attaquer à la menace croissante que représente la désinformation ». « Si elle est adoptée, la modification législative proposée entrera en vigueur dès qu’elle obtient la sanction royale. De cette façon, on s’assurera que cette disposition de la Loi électorale du Canada, qui vise explicitement à lutter contre la désinformation en ligne, est en place en cas d’élections générales ou partielles. »

Groupes cibles : Citoyens, politiciens

Gouvernement du Canada

Stratégie de mobilisation internationale sur la diversité des contenus en ligne

« Série de rencontres et de discussions ouvertes et transparentes guidées par deux principes inspirés des normes internationales actuelles sur la diversité culturelle. » « Encourager des échanges ouverts entre les représentants de gouvernements, du secteur privé et de la société civile sur divers sujets, y compris la désinformation et la diversité des contenus. »

Groupe cible : Citoyens

Gouvernement du Canada

Anatomie des fausses nouvelles et désinformation virale (Vidéo)

Vulgarisation scientifique portant sur les fausses nouvelles et la désinformation virale.

« Au-delà des fausses nouvelles, au moins six autres types d’informations problématiques circulent sur le Web. Des images truquées à la propagande, en passant par les vidéos manipulées et les extrapolations éhontées, comment se prémunir contre cette désinformation ? »

Groupe cible : Citoyens

Agence Science-Presse

A Survey on Deepfake Video Detection (Anglais)

« Récemment, les vidéos deepfake, générées par des algorithmes d’apprentissage profond, ont attiré une grande attention. La technologie deepfake peut être utilisée pour effectuer des manipulations de visage avec un grand réalisme. Jusqu’à présent, un grand nombre de vidéos deepfake ont circulé sur Internet, la plupart visant des célébrités ou des hommes politiques. Ces vidéos sont souvent utilisées pour nuire à la réputation des célébrités et orienter l’opinion publique, menaçant ainsi grandement la stabilité sociale. Bien que l’algorithme deepfake lui-même ne possède pas d’attributs de bien ou de mal, cette technologie a été largement utilisée à des fins négatives. Pour éviter qu’elle ne menace la société humaine, une série de recherches ont été lancées, notamment l’élaboration de méthodes de détection et la construction de repères à grande échelle. Cette revue a pour but de démontrer l’état actuel de la recherche sur la détection des vidéos « deepfake », en particulier le processus de génération, plusieurs méthodes de détection et les points de référence existants. Il a été révélé que les méthodes de détection actuelles sont encore insuffisantes pour être appliquées dans des scènes réelles, et que les recherches futures devraient accorder plus d’attention à la généralisation et à la robustesse. » – (Traduction libre)

Groupe cible : Citoyens

AI

3 astuces pour distinguer l’information de l’opinion

Fiche technique permettant de distinguer l’information de l’opinion.

« Sur les réseaux sociaux comme dans les journaux, en passant par les blogues, l’information et l’opinion se côtoient, parfois sans grande distinction. Les sujets les plus polarisants, comme la pandémie de la COVID-19, font l’objet de reportages bien factuels… et d’encore plus de chroniques et de vidéos de YouTubeurs donnant leur point de vue. – Contenu : C. Lopez, E. Beaudin, P. Lapointe »

Groupe cible : Citoyens

Agence Science-Presse

6 astuces pour éviter de propager la désinfo

« Théories du complot, faux remèdes, fausses origines du virus : vous en avez vu passer, vous en verrez passer d’autres. Tout le monde a son rôle à jouer pour éviter la propagation d’informations mensongères. Voici notre petit guide d’autodéfense en temps de COVID-19, à prescrire à tous ceux qui utilisent régulièrement les réseaux sociaux. »

Groupe cible : Citoyens

Agence Science-Presse

Attention aux images et aux vidéos (vidéo)

« Même si les réseaux sociaux restent assez opaques quant au mode de fonctionnement de leurs algorithmes, il est évident qu’ils favorisent les photos, les vidéos et les « mèmes » plutôt que les articles fouillés. »

Groupe cible : Citoyens

Agence Science-Presse

Au delà des faits

« Pour aider les Canadiens à développer les compétences en matière de recherche, d’authentification et de pensée critique qui sont nécessaires en cette ère numérique, HabiloMédias et Facebook Canada ont fait équipe afin de créer le programme Au-delà des faits! Dans le cadre de cette initiative biennale publique de sensibilisation et d’éducation, nous créerons une série de vidéos, de fiches-conseils et d’activités qui offriront aux Canadiens de tous les âges les outils dont ils ont besoin pour vérifier différents types de renseignements en ligne et les aider à comprendre pourquoi il est important de faire une double vérification avant de partager des renseignements en ligne.»

Groupe cible : Élèves de 9e à 12e année

Habilo Médias
Le centre canadien d’éducation aux médias et de littératie numérique et Facebook Canada

Bulles de filtres et chambres d’écho (vidéo)

« le « biais de confirmation » – les algorithmes contribuent à nous enfermer dans une bulle où rien ne pénètre, à part les informations auxquelles on adhère à priori ».

Ces bulles agissent ainsi à titre de facilitateurs à la désinformation.

Groupe cible : Citoyens

Agence Science-Presse

Comment combattre la désinformation

« Parcourez nos ateliers thématiques pour mieux vous outiller contre les fausses nouvelles qui circulent sur le web.»

Groupe cible : Citoyens

Décrypteurs, Radio-Canada

Comment fabrique-t-on l’information

« Pour les enseignants du primaire et du secondaire, une série de huit fiches pédagogiques inédites et gratuites qui éclairent diverses facettes de la production de l’information à l’ère des réseaux sociaux. Les fiches proposent plusieurs activités à faire en classe à l’aide d’outils numériques et d’applications couramment utilisées. Une série d’affiches « aide-mémoire » téléchargeables accompagne chacune des fiches. »

Groupes cibles : Enseignants, élèves de niveau primaire et secondaire

Agence Science-Presse

Comparison of Deepfake Detection Techniques through Deep Learning (Anglais)

« Les deepfakes sont des faux médias d’apparence réaliste générés par des algorithmes d’apprentissage profond qui itèrent à travers de grands ensembles de données jusqu’à ce qu’ils aient appris à résoudre le problème donné (c’est-à-dire échanger des visages ou des objets dans des contenus vidéo et numériques). La génération massive de ces contenus et les technologies de modification affectent rapidement la qualité du discours public et la sauvegarde des droits de l’homme. Les deepfakes sont largement utilisés comme source malveillante de désinformation dans les tribunaux pour tenter d’influencer la décision d’un tribunal. Les preuves numériques étant essentielles à l’issue de nombreuses affaires judiciaires, la détection des médias deepfakes est extrêmement importante et très demandée dans le domaine de la criminalistique numérique. Il est donc important d’identifier et de construire un classificateur capable de distinguer avec précision les médias authentiques des médias déguisés, en particulier dans les systèmes de reconnaissance faciale, car ils peuvent également être utilisés pour la protection de l’identité. Dans ce travail, nous comparons les classificateurs de détection de visage les plus courants et les plus avancés, tels que Custom CNN, VGG19 et DenseNet-121, en utilisant un jeu de données augmenté de détection de vrais et faux visages. L’augmentation des données est utilisée pour améliorer les performances et réduire les ressources informatiques. Nos résultats préliminaires indiquent que VGG19 a la meilleure performance et la plus grande précision de 95% par rapport aux autres modèles analysés. » – (Traduction libre)

Groupe cible : Citoyens

MDPI Open Access Journals

COVID-19 : Dépister la désinfo

« À l’heure des fausses nouvelles et des médias sociaux, il n’est pas toujours évident de faire le tri entre le vrai et le faux qui circulent sur le coronavirus. Comment vérifier l’information ? Comment débusquer les fausses nouvelles ? Quels sont les bons gestes à adopter pour éviter l’infodémie ? Nos journalistes se penchent sur le sujet. Leur objectif ? Dépister la désinfo, et vous donner tous les outils pour ne pas tomber dans le panneau des fausses nouvelles ! »

Groupes cibles : Citoyens, journalistes

Fédération professionnelle des journalistes du Québec en partenariat avec l’Agence Science-Presse (ASP)

Deepfake detection by human crowds, machines, and machine-informed crowds (Anglais)

« L’émergence récente de médias manipulés par des machines soulève une question sociétale importante : Comment pouvons-nous savoir si une vidéo que nous regardons est vraie ou fausse ? Dans deux études en ligne avec 15 016 participants, nous présentons des vidéos authentiques et des deepfakes et demandons aux participants d’identifier lequel est lequel. Nous comparons les performances d’observateurs humains ordinaires avec celles du principal modèle de détection des « deepfakes » par vision par ordinateur et nous constatons qu’ils ont une précision similaire, tout en commettant différents types d’erreurs. Ensemble, les participants ayant accès à la prédiction du modèle sont plus précis que l’un ou l’autre seul, mais les prédictions inexactes du modèle diminuent souvent la précision des participants. Afin de sonder les forces et faiblesses relatives des humains et des machines en tant que détecteurs de deepfakes, nous examinons les performances des humains et des machines sur les caractéristiques des vidéos, et nous évaluons l’impact des interventions aléatoires préenregistrées sur la détection des deepfakes. Nous constatons que les manipulations conçues pour perturber le traitement visuel des visages entravent les performances des participants humains alors qu’elles n’affectent généralement pas les performances du modèle, ce qui suggère que les capacités cognitives spécialisées jouent un rôle dans l’explication des performances humaines de détection des deepfakes. » – (Traduction libre)

Groupe cible : Citoyens

PNAS (Proceedings of National Academy of Sciences) Matthew Groh, Ziv Epstein, Chaz Firestone et Rosalind Picard

Deepfake : le vrai du faux d’une technologie révolutionnaire

« Les deepfakes sont cités fréquemment dans les médias pour leurs potentiels effets délétères en termes de désinformation. Mais si la révolution n’était pas là où l’on croit ? Si les bouleversements les plus spectaculaires liés à cette technologie devaient advenir dans l’industrie créative ? »

«Invités de l’épisode :

Gérald Holubowicz, journaliste spécialisé sur les deepfakes et enseignant à Sciences Po Paris, aborde les conséquences des avancements technologiques et de la deep pornographie puis leurs solutions.

Audrey Side, avocate en droit de la propriété intellectuelle et des nouvelles technologies, explique l’absence de jurisprudence sur les deepfakes et les solutions envisageables.

Nicolas Obin, chercheur au laboratoire des sciences en technologies de la musique et du son de l’Ircam et spécialiste du clonage de l’identité vocale, traitera de ses potentielles instrumentalisations.»

Groupe cible : Citoyens

France Culture / Le Meilleur des mondes

Deepfakes: Why you can’t believe everyhing you see and hear (Anglais)

« Qu’est-ce que cela fait d’être trompé par une voix à laquelle vous pensiez pouvoir faire confiance ? Joseph explore le côté sombre de l’IA et de l’apprentissage automatique – et comment les deepfakes pourraient être la fin du monde tel que nous le connaissons, mais pas la fin du monde. » – (Traduction libre)

Groupe cible : Citoyens

TEDxToronto

Des astuces pour authentifier une image repérée dans le Web

« Fiche technique pour dépister la désinformation. Cette référence offre une série d’étapes à suivre par les utilisateurs des réseaux sociaux lors de la consultation d’informations. »

Groupe cible : Citoyens

Agence Science-Presse

Detect Fakes (Anglais)

« Detect Fakes est un projet de recherche axé sur les différences entre la façon dont les êtres humains et les modèles d’apprentissage automatique repèrent les médias manipulés par l’IA. » – (Traduction libre)

Ce site propose des exercices de repérage d’hypertrucage.

Groupes cibles : Citoyens, journalistes

Detect Fakes

Disrupting DeepFakes :Adversarial Attacks Against Conditional Image Translation Networks (Anglais)

Podcast sur l’utilisation des technologies et les stratégies de préventions de propagation de deepfakes.

« Aujourd’hui, nous recevons Nataniel Ruiz, un doctorant du groupe Image & Video Computing de l’université de Boston. Nous avons rencontré Nataniel pour discuter de son article « Disrupting DeepFakes : Adversarial Attacks Against Conditional Image Translation Networks and Facial Manipulation Systems », qui sera présenté à la prochaine conférence CVPR. Au cours de notre conversation, nous avons discuté du concept de ce travail, qui consiste essentiellement à injecter du bruit dans une image afin de perturber la capacité d’un modèle génératif à manipuler ladite image. Nous explorons également certaines des parties difficiles de la mise en œuvre de ce travail, quelques scénarios potentiels dans lesquels il pourrait être déployé, et les contributions plus larges qui sont allées dans ce travail. » – (Traduction libre)

Groupe cible : Citoyens

TWIML (This Week in Machine Learning & AI)

Études scientifiques : lesquelles sont les plus « solides » ?

Description de l’échelle de la solidité des preuves soulevées par les études observationnelles, expérimentales et systématiques en vue d’outiller les utilisateurs médiatiques d’un regard critique lié à la validation de l’information.

Groupe cible : Citoyens

Agence Science-Presse

Facebook favorise-t-il la désinformation et la polarisation idéologique des opinions ?

« La question des effets de l’internet sur les équilibres démocratiques s’est posée très tôt tant la grappe d’innovations déployée à partir des ressources de cette technologie venait diversifier les modes de communication, de partage d’informations et d’échanges d’idées [1]. L’histoire de l’internet ne s’est pas jouée que dans des laboratoires scientifiques et militaires, elle s’est également écrite dans des milieux hackers qui lui ont très rapidement insufflé une culture libertaire, incitant à percevoir cette technologie comme un outil de liberté mis entre les mains des citoyens pour expérimenter des modes d’organisation sociaux plus horizontaux (Castells, 2002). Cependant, des chercheurs se demandent si l’internet favorise réellement la confrontation à des points de vue contraires et remplit cette condition minimale d’une authentique délibération démocratique (Lev-On, Manin, 2006). Aujourd’hui attisée par la prolifération de fausses informations au sein des réseaux socionumériques, cette controverse conduit à questionner les effets de ces réseaux sur l’exposition à des informations politiques et sur la formation des opinions. Nous explorons ce phénomène sous l’angle du partage d’informations sur Facebook lors de l’élection présidentielle française de 2017. »

Groupe cible : Citoyens

Revue Question de communication Julien Figeac, Tristan Salord, Guillaume Cabanac, Ophélie Fraisier, Pierre Ratinaux, Fanny Seffusatti et Nikos Smyrnaios

« Fake news » : le nouveau visage d’un vieux problème (vidéo)

Vidéo de vulgarisation scientifique au sujet de l’histoire des fausses nouvelles à travers le temps et de leur émergence dans les réseaux sociaux.

« Les fausses nouvelles dateraient d’au moins 2500 ans. Et ce n’est pas si étonnant. Quoi de plus facile pour miner l’ennemi que d’inventer des fausses informations à son sujet ? À l’époque, elles étaient colportées de bouche à oreille. »

Groupe cible : Citoyens

Agence Science-Presse

Fake videos of real people – and how to spot them (Anglais)

« Pensez-vous être doué pour repérer les fausses vidéos, où des personnes célèbres disent des choses qu’elles n’ont jamais dites dans la vie réelle ? Découvrez comment elles sont fabriquées dans cet exposé et cette démonstration technique étonnants. L’informaticien Supasorn Suwajanakorn montre comment, en tant qu’étudiant diplômé, il a utilisé l’IA et la modélisation 3D pour créer de fausses vidéos photoréalistes de personnes synchronisées à l’audio. Apprenez-en davantage sur les implications éthiques et les possibilités créatives de cette technologie, ainsi que sur les mesures prises pour lutter contre son utilisation abusive. » – (Traduction libre)

Groupe cible : Citoyens

TED

Faux que ça cesse : Comment savoir ce qui est vrai sur Internet

« L’atelier FAUX que ça cesse : Comment savoir ce qui est vrai sur Internet enseignera aux participants quatre mesures faciles et rapides qu’ils peuvent prendre pour déceler les fausses informations et déterminer si le contenu en ligne est vrai ou non. Conçu pour des participants de 11 ans et plus, cet atelier vous offre tout ce dont vous avez besoin pour animer un atelier de 60 minutes, y compris un diaporama, un guide de l’animateur et des documents de cours. »

Groupes cible : Les jeunes de 11 ans et plus

Habilo Médias
Le centre canadien d’éducation aux médias et de littératie numérique

From Deepfakes to TikTok Filters : How do You Label AI Content? (Anglais)

« Lorsqu’un deepfake étonnamment réaliste de Tom Cruise s’est répandu sur Internet en mars, beaucoup de gens ont été choqués à juste titre. Son réalisme saisissant laissait penser que l’intelligence artificielle avait fait un bond en avant de plusieurs années

Mais une caractéristique importante a été facilement manquée. En utilisant l’identifiant
« deeptomcruise » sur les médias sociaux, le créateur a été transparent sur le fait qu’il s’agissait d’un deepfake.

Dans un avenir rempli de médias manipulés par l’intelligence artificielle, nous aurons besoin de méthodes comme celle-ci pour indiquer ce qui est réel et ce qui a été truqué par l’IA.

Et ce ne sera pas seulement une question d’éthique. L’Union européenne pourrait exiger que les utilisateurs soient informés lorsque l’IA a généré ou manipulé un contenu qu’ils regardent.
Comment étiqueter les médias d’IA de manière à ce que les gens les comprennent ? Et comment cela pourrait-il se retourner contre nous ? » – (Traduction libre)

Groupe cible : Citoyens

Partnership on AI Tommy Shane, Emily Saltz et Claire Leibowicz

Gender Shades (Vidéo Anglais)

 » Le projet Gender Shades pilote une approche intersectionnelle des tests de produits inclusifs pour l’IA.

« Gender Shades est une excavation préliminaire des négligences involontaires qui paralyseront l’ère de l’automatisation et exacerberont davantage les inégalités si on les laisse s’envenimer. Plus nous creuserons, plus nous trouverons de vestiges de préjugés dans notre technologie. Nous ne pouvons pas nous permettre de détourner le regard cette fois-ci, car les enjeux sont tout simplement trop importants. Nous risquons de perdre les acquis du mouvement des droits civiques et du mouvement des femmes sous le prétexte fallacieux de la neutralité des machines. Les systèmes automatisés ne sont pas neutres en soi. Ils reflètent les priorités, les préférences et les préjugés – le regard codé – de ceux qui ont le pouvoir de modeler l’intelligence artificielle. » – (Traduction libre)

Groupe cible : Citoyens

MIT Media Lab

How deepfakes undermine truth and threaten democracy (Vidéo – Anglais)

« L’utilisation de la technologie deepfake pour manipuler la vidéo et l’audio à des fins malveillantes — qu’il s’agisse d’attiser la violence ou de diffamer des politiciens et des journalistes — devient une menace réelle. Ces outils devenant plus accessibles et leurs produits plus réalistes, comment vont-ils façonner ce que nous croyons du monde ? Lors d’une conférence prometteuse, la professeure de droit Danielle Citron révèle comment les « deepfakes » amplifient notre méfiance – et propose des approches pour sauvegarder la vérité. » (Traduction libre)

Groupe cible : Citoyens

TED

How to Share the Tools to Spot Deepfakes (Without Breaking Them) (Anglais)

 » Malgré des investissements importants dans les détecteurs, il est compliqué d’utiliser cette technologie de manière responsable et efficace. Quelle est l’utilité des détecteurs ? Peuvent-ils être mis à la disposition des journalistes, des médecins légistes, des défenseurs des droits et des organisations de la société civile du monde entier sans les rendre de plus en plus vulnérables à l’évasion des mauvais acteurs ? Un signal qualitatif indiquant qu’un contenu est inauthentique aide-t-il réellement ceux qui interprètent ce contenu à le juger véridique ou non ? Quelles ressources et capacités sont nécessaires en plus de la détection pour la rendre significative et utile ? Et les détecteurs en ligne à grande échelle présentent-ils un quelconque intérêt ?  » (Traduction libre)

Groupe cible : Citoyens

Partnership on AI Claire Leibowicz (PAI), Adriana Stephan (PAI) et Sam Gregory (WITNESS)

Indices pour repérer les fausses nouvelles (Vidéo)

« On imagine souvent que la lutte à la désinformation se fera par l’implantation d’une réglementation ou de mesures que prendront Facebook, YouTube ou Twitter. Mais c’est aussi sur nous que repose la solution ! D’abord, il faudrait faire un examen de conscience collectif et reconnaître que nous sommes nombreux à réagir à un article… qu’on n’a souvent même pas lu ! »

Groupes cibles : Citoyens, utilisateurs de réseaux sociaux

Agence Science-Presse

Infocalypse : la propagation des hypertrucages menace la société

« Nous assistons à l’émergence d’une nouvelle génération de désinformation qui chamboule nos repères. 

En effet, l’inquiétude provoquée par la popularité croissante des deepfakes, ou hypertrucages malveillants, ont amené l’auteure et conseillère spécialisée en médias synthétiques, Nina Schick, à annoncer l’imminence d’une infocalypse. 

Les hypertrucages sont des enregistrements audio et vidéo de personnes réelles prononçant et exécutant des choses qu’elles n’ont jamais dites ou faites, créés à l’aide des algorithmes d’apprentissage automatique. »

Groupes cibles : Citoyens, étudiants

The Conversation (Nadia Naffi, Anne-Louise Davidson et François Berger)

International fact-checking network (Anglais)

« L’International Fact-Checking Network (IFCN) de Poynter a été lancé en 2015 pour rassembler la communauté croissante des « fact-checkers » du monde entier et les défenseurs de l’information factuelle dans la lutte mondiale contre la désinformation. » – (Traduction libre)

Groupe cible : Journalistes

Poynter- IFCN

La guerre et ses hypertrucages (Anglais)

« Depuis longtemps, la vérité est parmi les premières victimes de la guerre. Ce qui est inédit est la disponibilité de technologies pouvant générer et diffuser propos et images qui n’ont rien à voir avec la réalité vérifiable sur le terrain. La fabrication des hypertrucages (deepfakes) est désormais à la portée de beaucoup de monde. C’est une arme dans les batailles de propagande inhérentes aux guerres contemporaines. Pour se protéger de la désinformation, il faut se donner les moyens de départager le vrai du faux. »

Groupe cible : Citoyens

Le Devoir

Les « bots » : agents de diffusion (Vidéo)

« Les robots sociaux – ou « bots » – sont des algorithmes programmés pour compléter une série de tâches sur les réseaux sociaux. Ils sont très efficaces pour publier et relayer des informations parfois douteuses. Les comptes qui propagent activement de la désinformation sont d’ailleurs plus souvent des robots que de réels utilisateurs influents. »

Groupe cible : Citoyens

Agence Science-Presse

Les fausses nouvelles voyagent plus vite que les vraies (Vidéo)

« « Un mensonge peut faire le tour de la Terre le temps que la vérité ne mette ses chaussures! » On ne saura peut-être jamais qui – de Mark Twain ou de Jonathan Swift – est le premier à avoir lancé cette boutade, mais elle illustre bien la situation actuelle.»

Groupe cible : Citoyens et utilisateurs de réseaux sociaux

Agence Science-Presse

Lutter contre la désinformation par le renforcement des médias et l’état de préparation des citoyens au Canada

« Le projet, d’une durée de neuf mois, formera les journalistes professionnels et le grand public aux stratégies pour identifier, tracer et exposer les campagnes de désinformation sur les réseaux sociaux. Le projet est financé par l’Initiative de citoyenneté numérique de Patrimoine canadien, qui vise à promouvoir les programmes de connaissance numérique, médiatique et civique afin de renforcer la résilience des citoyens face à la désinformation en ligne. ».

Groupes cibles : Journalistes, citoyens

Journalists for Human Rights (JHR)

La désinformation à propos de la santé et des sciences

« Même si les sujets portant sur la santé et les sciences sont soumis aux mêmes sortes de désinformation que l’on trouve partout, deux types sont particulièrement courants dans ces domaines : le négationnisme et la poudre de perlimpinpin. »

Groupes cibles: Personnel scolaire, famille

Habilo Médias
Le centre canadien d’éducation aux médias et de littératie numérique

Le biais de confirmation c’est quoi ?

Article portant sur l’explication du fonctionnement du biais de confirmation et de son impact dans la consultation d’informations.

Groupe cible: Utilisateurs des réseaux sociaux

Agence Science-Presse

Le Détecteur de rumeurs

Parcours thématiques ludiques traitant des astuces pour contrer la désinformation, comprendre les théories du complot, comprendre le rôle de nos biais cognitifs et intégrer des stratégies de validation d’informations. Le détecteur de rumeur est notamment une « rubrique de vérification des faits (fact-checking) ».

Groupe cible : Citoyens

Agence Science-Presse

Les géants de la technologie lancent le « deepfake challenge » pour contrer la désinformation

« L’objectif de cette initiative est de créer une technologie que tout le monde pourra utiliser pour détecter les vidéos modifiées par des outils d’intelligence artificielle et dont le but est d’induire en erreur les utilisateurs et utilisatrices ».

Groupe cible : Citoyens

Radio-Canada

Nos ateliers de formation

« Comment départager le VRAI du FAUX alors que la désinformation et les fausses nouvelles sont partout sur le Web? Depuis 2017, le Détecteur de rumeurs va à la rencontre des communautés du Québec pour expliquer le phénomène des fausses nouvelles et donner ses trucs et astuces pour éviter de les propager. Nos ateliers de formation s’adressent tant aux écoles du primaire et du secondaire, aux bibliothèques et aux organisations qu’au grand public et à toutes les personnes qui souhaitent mieux s’informer! »

Formations pour les élèves du primaire (9-12 ans) : « Une initiation au phénomène des fausses nouvelles pour les plus jeunes! Ces ateliers leur apprendront à reconnaître une information fiable et aiguiseront leur sens critique devant des articles ou des vidéos de sources douteuses. »

Formations pour les élèves du secondaire (12-17 ans) : « Ces ateliers visent à outiller les jeunes du secondaire face au flot de fausses nouvelles auquel ils sont confrontés quotidiennement. Ils apprendront à reconnaître les sources crédibles, à faire la distinction entre un fait et une opinion et sauront exercer un esprit critique devant l’information qui leur est présentée. »

Ateliers de formation pour le grand public : « Tout le monde est susceptible de tomber dans le panneau des fausses nouvelles. Nous proposons nos ateliers aux bibliothèques, organismes communautaires et organisations qui souhaitent outiller leurs usagers et les citoyens devant la désinformation qui abonde sur le web et sur les réseaux sociaux. »

Groupes cibles : Élèves de niveau primaire et secondaire, citoyens

Agence Science-Presse

Philippines election : ‘Politicians hire me to spread fake stories’ (Anglais)

Comptes dédiés à la propagation de désinformation et de deepfakes (vidéos de désinformation) pour influencer les choix des électeurs.

Groupe cible : Citoyens

BBC NEWS

Personne n’est à l’abri des fausses nouvelles (Vidéo)

« À l’heure où on s’informe de plus en plus sur les réseaux sociaux, seulement 37% des Canadiens sont capables de distinguer les « fake news » sur le web ! Jeunes et plus vieux sont tout aussi susceptibles de se laisser berner par de l’information trompeuse ou des fausses nouvelles »

Groupe cible : Citoyens

Agence Science-Presse

Pièges technologiques et désinformation

Article visant à sensibiliser les utilisateurs des réseaux sociaux aux rôles des algorithmes (ainsi qu’aux dangers qu’ils peuvent occasionner), à la personnalisation des résultats de recherche, à l’effet de bulle informationnelle ainsi qu’au partage instantané.

Groupe cible : Citoyens

Agence Science-Presse

RESSEMBLANCE

Définition du l’hypertrucage et de son apparence sur les médias sociaux.

Groupe cible : Citoyens

SYNTH : Journalism Design newsletter

Scan & Detect Deepfake Videos (Anglais)

« Scannez une vidéo suspecte pour savoir si elle a été manipulée synthétiquement. » – (Traduction libre)

Groupe cible : Citoyens

Deepware

Si ça confirme ce que je pense, ça doit être vrai ! (Vidéo)

« Le « biais de confirmation » est la tendance à privilégier les informations qui confirment nos opinions et à négliger celles qui les contredisent. On est donc davantage prédisposé à tomber dans le panneau d’une fausse nouvelle qui confirme ce que l’on pense. Et comme les algorithmes nous espionnent, ce sont ces contenus qui nous sont proposés ! »

Groupe cible : Citoyens

Agence Science-Presse

Survivre au web (même quand on est aveugle)

Balado sur la désinformation et l’utilisation des réseaux sociaux.

« Internet est un univers au potentiel incroyable, mais il est également parsemé d’embuches : désinformation, des photos gênantes qui laissent des traces… Raphaëlle et Massi découvrent les trucs pour pouvoir y survivre, et même y naviguer quand on est non-voyant. En prime : un chroniqueur automobile vulgarise les rouages du web. »

Groupe cible : Jeunes

Radio-Canada – Le guide de survie des débrouillards

Trucs de pro pour vérifier l’info (Vidéo)

« Vérifier la source d’une information, qui en est l’auteur et sur quel type de média elle est publiée, c’est la base pour savoir si une information est crédible. Mais parfois, il faut aller plus loin et carrément sortir du site pour savoir à qui on a affaire, surtout si on s’informe sur un sujet important ou controversé. »

Groupes cibles : Citoyens et utilisateurs des réseaux sociaux

Agence Science-Presse

Vérifié !

« VÉRIFIÉ! Notre série de 5 capsules jeunesse, animées par Vanessa Destiné, pour aider les 8-12 ans à départager le vrai du faux dans l’information! En collaboration avec la Fédération professionnelles des journalistes du Québec (FPJQ), Télé-Québec et la Coopérative nationale de l’information indépendante (CN2i) dans le cadre du projet Covid-19 : Dépister la désinfo. Avec l’aide financière de Patrimoine Canadien. »

Groupe cible : Enfants de 8 à 12 ans

Agence Science-Presse

Vérifier les nouvelles en ligne

« La plupart d’entre nous consultons des sources en ligne pour nous informer de l’actualité. Toutefois, les nouvelles sont l’une des choses les plus difficiles à vérifier et les désinformations peuvent se propager facilement par le biais des médias sociaux. Cette section présente les stratégies pouvant servir à assurer que les actualités que vous consommez, et que vous partagez, sont fiables. »

Groupes cibles : Famille, personnel scolaire

Habilo Médias
Le centre canadien d’éducation aux médias et de littératie numérique

Vidéo : Dans la lutte contre les deepfakes, Facebook a une solution à base d’IA

Technologie : Des scientifiques employés par Facebook ont présenté cette semaine une méthode qui doit permettre, grâce à l’intelligence artificielle (IA), de détecter les deepfakes.

Groupe cible : Citoyens

ZDnet

#VraimentVrai – Comment vérifier l’information

« #VraimentVrai – Une série de 4 capsules vidéo avec des journalistes spécialisés en désinformation ou en science qui partagent leurs réflexions sur leur métier et des trucs pour vérifier l’information. »

Groupe cible : Citoyens

Agence Science-Presse

VRAI ou faux en ligne

« Médias d’info Canada a mis au point la vidéo VRAI ou faux en ligne, un programme facile à comprendre qui encouragera les Canadiens à éviter d’être manipulés en ligne en suivant quatre étapes simples, mais efficaces. VRAI ou faux en ligne est une campagne bilingue, à multiples facettes, qui sera communiquée aux Canadiens au moyen d’une vidéo éducative, d’un nouveau microsite du programme et d’une campagne publicitaire nationale exhaustive dans les journaux imprimés et sur les sites de nouvelles des membres de Médias d’info Canada.»

Groupe cible : Citoyens

Médias d’info Canada

Aider les citoyens à mieux s’informer

« Le Centre québécois d’éducation aux médias et à l’information (CQÉMI) aide les citoyens, jeunes et moins jeunes, à mieux s’informer et à développer leur esprit critique afin de combattre la désinformation. Il travaille aussi à faire connaître le journalisme et son rôle essentiel dans une société démocratique. »

Groupe cible : Citoyens

Centre québecois d’éducation aux médias et à l’information (CQÉMI)

A New Approach to Improve Learning-based Deepfake Detection in Realistic Conditions (Anglais)

« Les réseaux de neurones convolutifs profonds ont obtenu des résultats exceptionnels sur de multiples tâches de détection et de reconnaissance. Cependant, les performances de ces détecteurs sont souvent évaluées dans des benchmarks publics dans des situations contraignantes et non réalistes. L’impact des distorsions et des opérations de traitement classiques que l’on trouve dans les flux d’imagerie, comme la compression, le bruit et l’amélioration, n’est pas suffisamment étudié. Actuellement, seules quelques recherches ont été menées pour améliorer la robustesse des détecteurs aux perturbations invisibles. Cet article propose un schéma d’augmentation des données plus efficace basé sur le processus de dégradation des images du monde réel. Cette nouvelle technique est déployée pour des tâches de détection d’imitations profondes et a été évaluée par un cadre d’évaluation plus réaliste. Des expériences approfondies montrent que le schéma d’augmentation des données proposé améliore la capacité de généralisation aux distorsions imprévisibles des données et aux ensembles de données inconnus. » – (Traduction libre)

Groupe cible : Citoyens

Multimedia Signal Processing Group (MMSPG), École Polytechnique de Lausanne (EPFL) Yuhang Lu et Touradj Ebrahimi

Ça se peut ou pas ?

« Au terme de l’activité “ Ça se peut ou pas ?”, les élèves auront déterminé des stratégies pour valider la véracité de l’information qu’ils rencontrent sur internet. »

Groupes cibles : Élèves du premier cycle du secondaire

Récit – La citoyenneté à l’ère du numérique

Checkology (lien 1) (lien 2) (Anglais)

« Les leçons et autres ressources de Checkology vous montrent comment naviguer dans le paysage informationnel difficile d’aujourd’hui. Vous apprendrez à identifier les informations crédibles, à rechercher des sources fiables et à appliquer des compétences de pensée critique pour séparer le contenu basé sur les faits des faussetés. » – (Traduction libre)

Groupes cibles : Personnel scolaire, élèves, communauté

News Literacy Project

Civic Online Reasoning (Anglais)

« Les étudiants ne savent pas comment évaluer les informations en ligne. Nous le sommes tous. Le programme COR propose des leçons et des évaluations gratuites qui vous aideront à apprendre aux élèves à évaluer les informations en ligne qui les concernent, ainsi que leurs communautés et le monde. » – (Traduction libre)

Groupe ciblé : Élèves

Stanford History Education Group

Comment sont réalisées les vidéos hypertruquées Deepfake?

Magazine jeunesse abordant le sujet des deepfakes, leur création puis leur orchestration sur les médias sociaux.

« Générer de faux discours. Mettre des mots dans la bouche d’une personnalité publique à son insu. Faire croire, grâce à des outils technologiques, qu’elle a dit quelque chose qu’elle n’a pourtant jamais affirmé… ou ni même pensé. C’est exactement ce que permet l’hypertrucage (ou deepfake, en anglais). »

Groupe ciblé : Jeunes

CQÉMI (Centre québécois d’éducation aux médias et à l’information)

CTRL-F

« Dans les faits est un programme ayant été conçu afin de permettre aux élèves de développer des compétences simples afin d’évaluer la crédibilité des sources et l’exactitude des informations en ligne. Avec la propagation de plus en plus rapide d’informations fausses et trompeuses, pouvoir discerner ce qui est fiable de ce qui ne l’est pas est devenu compétence citoyenne essentielle. Le programme CTRL-F contribue au développement d’une citoyenneté bien informée en aidant les élèves à acquérir des compétences en matière d’éducation aux médias numériques. »

Groupe cible : Élèves

Civix

Deepfake : New Era in The Age of Disinformation & End of Reliable Journalism (Anglais)

« Dès les premiers instants du journalisme, il est évident qu’il existe des fake news et donc des problèmes de journalisme fiable. Cependant, comme dans de nombreux domaines, les développements technologiques rapides du siècle dernier ont eu des conséquences dramatiques dans le domaine du journalisme également. La perception de la confiance dans le journalisme a changé et continue de changer. Par conséquent, notre époque commence à être qualifiée d’ère de la désinformation. Il est possible de considérer le deepfake (technologie de manipulation vidéo et audio basée sur l’intelligence artificielle) comme une nouvelle ère dans ce domaine. En fait, avec le deepfake, il est devenu facile pour des utilisateurs ordinaires de faire croire que quelqu’un a dit quelque chose qu’il n’a jamais dit ou s’est rendu dans un endroit où il n’est jamais allé. Bien que cette situation ait le potentiel de fournir de larges avantages dans divers domaines, il est possible de dire qu’elle causera de gros problèmes dans de nombreux domaines, y compris le journalisme. Ainsi, dans cet article, en utilisant la méthode d’analyse descriptive, les problèmes sociaux généraux causés par les deepfakes sont brièvement mentionnés et il est affirmé que le journalisme fiable risque de disparaître si des mesures rapides et efficaces ne sont pas prises. » – (Traduction libre)

Groupe cible : Citoyens

SELÇUK İLETİŞİM DERGİSİ university Erkam Temir

Deep Fakes : A Looming Challenge for Privacy, Democracy, and National Security (Anglais)

« Les mensonges nuisibles ne sont pas nouveaux. Mais la capacité à déformer la réalité a fait un bond en avant exponentiel avec la technologie du « deep fake ». Cette capacité permet de créer des enregistrements audio et vidéo de personnes réelles disant et faisant des choses qu’elles n’ont jamais dites ou faites. Les techniques d’apprentissage automatique augmentent la sophistication de la technologie, rendant les faux profonds toujours plus réalistes et de plus en plus résistants à la détection. La technologie du deep-fake présente des caractéristiques qui permettent une diffusion rapide et étendue, la mettant entre les mains d’acteurs aussi bien sophistiqués que non sophistiqués. » – (Traduction libr)

Groupe cible: Citoyens

Boston University School of Law (Danielle K. Citron) University of Texas (Robert Chesney)

Des conseils pour vérifier les images en ligne

« Alors que les jeunes sont friands des réseaux sociaux et qu’ils les utilisent comme source principale d’information, il peut être judicieux de les aider à développer une nouvelle compétence : celle de vérifier la provenance des images et vidéos qu’ils voient passer en ligne. »

Groupes cibles : Jeunes, étudiants

École branchée

Désinformation, fake news et deepfakes ?

Définitions des 3 concepts et conseils pour les parents qui souhaitent en discuter avec leurs enfants.

Groupe cible : Parents

École des réseaux sociaux

Detecting Deep-Fake Videos from Appearance and Behavior (Anglais)

« Les sons et les vidéos générés synthétiquement – ce qu’on appelle les « deep fakes » – continuent de frapper l’imagination des communautés de l’infographie et de la vision par ordinateur. Dans le même temps, la démocratisation de l’accès à une technologie capable de créer des vidéos manipulées sophistiquées de n’importe qui disant n’importe quoi continue de susciter des inquiétudes en raison de son pouvoir de perturber les élections démocratiques, de commettre des fraudes à petite échelle, d’alimenter des campagnes de désinformation et de créer de la pornographie non consensuelle. Nous décrivons une technique médico-légale basée sur la biométrie pour détecter les fausses vidéos profondes de type face-swap. Cette technique combine une biométrie statique basée sur la reconnaissance faciale avec une biométrie temporelle et comportementale basée sur les expressions faciales et les mouvements de la tête, où l’intégration comportementale est apprise en utilisant un CNN avec une fonction objective d’apprentissage métrique. Nous démontrons l’efficacité de cette approche sur plusieurs ensembles de données vidéo à grande échelle, ainsi que sur des contrefaçons profondes dans la nature. »

Groupe cible : Citoyens

Cornell University Shruti Agarwal, Tarek El-Gaaly, Hany Farid et Ser-Nam Lim

Développement et expérimentation d’outils éducatifs pour contrer la désinformation en ligne chez les jeunes adultes

« De nombreuses initiatives ont été lancées au Canada et ailleurs dans le monde pour répondre aux inquiétudes suscitées par la désinformation en ligne. Plusieurs outils et ressources numériques de formes variées (texte, vidéo, multimédia; quiz, jeux, conseils pratiques) ont été conçus pour aider les internautes à se prémunir contre les « fausses nouvelles » sur internet. Toutefois, l’efficacité de ces solutions proposées a rarement été testée. Le Centre d’études sur les médias souhaite contribuer à combler ce manque de connaissances en se penchant particulièrement sur les besoins et sur l’apprentissage de ces outils et ressources par des personnes faiblement scolarisées ou à faible revenu. »

Groupe cible : Citoyens

Société internationale pour la Centre d’études sur les médias (CEM)

Entre information et désinformation : comment démêler le vrai du faux

Apprendre à différencier l’information de la désinformation par diverses activités éducatives sur la désinformation proposées aux enseignants et à leurs élèves.

Groupes cibles : Élèves, enseignants

École branchée (enseigner à l’ère du numérique)

EVALUATING PHOTOS & VIDEOS: CRASH COURSE NAVIGATING DIGITAL INFORMATION (#7crash course (Anglais)

« Avec la quantité de photos et de vidéos fausses et trafiquées qui circulent, comment savoir à quoi se fier ? La plupart d’entre nous ont l’habitude de penser que « voir, c’est croire », mais comme la technologie facilite de plus en plus la diffusion de contenus peu fiables en ligne, il est plus important que jamais que nous lisions à côté, que nous vérifions le contexte et que nous vérifions toujours les faits dans les contenus suspects, même s’ils ont l’air réels. » – (Traduction libre)

Groupes cibles : Élèves secondaires, collégiens ou universitaires

Crash Course

Formation #30 secondes avant d’y croire

« Presque tout le monde est déjà tombé dans le panneau d’une fausse nouvelle! En cette ère de trucages faciles et de multiplication des plateformes de diffusion, où les algorithmes régissent les contenus que l’on voit, jamais il n’a été aussi difficile de démêler le vrai du faux. Les formations #30secondes avant d’y croire offertes par le CQÉMI ont pour objectif d’aider les participants à développer leur esprit critique. »

Groupe cible : Principalement les jeunes

Centre québécois d’éducation aux médias et à l’information

Human Detection of Political Deepfake across Transcripts, Audio, and Video (Anglais)

« Les récentes avancées technologiques en matière d’effets visuels hyperréalistes font craindre que les vidéos deepfake de discours politiques soient bientôt impossibles à distinguer visuellement des enregistrements vidéo authentiques. Pourtant, il existe peu de recherches empiriques sur la façon dont l’information audiovisuelle influence la susceptibilité des gens à se laisser prendre au piège de la désinformation politique. La sagesse conventionnelle dans le domaine de la recherche en communication prédit que les gens se laisseront plus souvent prendre aux fausses nouvelles lorsque la même version d’une histoire est présentée sous forme de vidéo plutôt que de texte. Cependant, les manipulations audiovisuelles laissent souvent des distorsions que certaines personnes, mais pas toutes, peuvent percevoir. Ici, nous évaluons comment les modalités de communication influencent la capacité des gens à discerner les discours politiques réels des fabrications en nous basant sur une expérience randomisée avec 5 727 participants qui ont fourni 61 792 jugements de discernement de la vérité. Nous présentons aux participants des extraits de discours politiques dont l’apparition est aléatoirement attribuée à des permutations de modalités textuelles, audio et vidéo. Nous constatons que les modalités de communication influent sur la précision du discernement : les participants sont plus précis sur une vidéo avec audio que sur une vidéo muette, et plus précis sur une vidéo muette que sur une transcription textuelle. De même, nous constatons que les participants se fient davantage à la manière dont quelque chose est dit (les indices audio-visuels) qu’à ce qui est dit (le contenu du discours lui-même). Cependant, les discours politiques qui ne correspondent pas aux perceptions publiques des croyances des politiciens réduisent la confiance des participants dans les indices visuels. En particulier, nous constatons que le raisonnement réfléchi modère le degré de prise en compte des informations visuelles par les participants : une faible performance au test de réflexion cognitive est associée à une dépendance insuffisante aux indices visuels et à une dépendance excessive à ce qui est dit. » – (Traduction libre)

Groupe cible : Citoyens

Cornell University Matthew Groh, Aruna Sankaranarayanan et Rosalind Picard

Hypertrucage : De la désinformation à l’hyperpersonnalisation

L’école branchée propose plusieurs ressources pédagogiques pour aborder le phénomène de l’hypertrucage en prenant soin de le définir.

« L’hypertrucage, aussi appelé deepfake, est une forme de trucage qui gagne du terrain sur les médias sociaux. Nous vous proposons un aperçu du phénomène ainsi que quelques ressources pour l’aborder en classe avec vos élèves. »

Groupes cibles : Personnels scolaire, étudiants

École branchée

ID-Reveal : Identity-aware DeepFake Video Detection (Anglais)

« Un défi majeur dans la détection de falsification DeepFake est que les algorithmes de pointe sont pour la plupart entraînés à détecter une méthode de falsification spécifique. En conséquence, ces approches présentent une faible généralisation à travers différents types de manipulations faciales, par exemple, de l’échange de visage à la reconstitution faciale. À cette fin, nous présentons ID-Reveal, une nouvelle approche qui apprend les caractéristiques faciales temporelles, spécifiques de la façon dont une personne se déplace pendant qu’elle parle, au moyen de l’apprentissage métrique couplé à une stratégie d’entraînement contradictoire. L’avantage est que nous n’avons pas besoin de données d’entraînement de faux, mais seulement d’entraînement sur des vidéos réelles. De plus, nous utilisons des structures sémantiques de haut niveau, ce qui permet de résister à des formes de post-traitement répandues et perturbatrices. Nous effectuons une analyse expérimentale approfondie sur plusieurs points de repère accessibles au public. Par rapport à l’état de l’art, notre méthode améliore la généra- lisation et est plus robuste aux vidéos de faible qualité, qui sont généralement diffusées sur les réseaux sociaux. En particulier, nous obtenons une amélioration moyenne de plus de 15% en termes de précision pour la reconstitution faciale sur des vidéos fortement compressées. » – (Traduction libre)

Groupe cible : Citoyens

University Frederico II of Naples, Tehcnical University of Munich et Max Planck Institute for Intelligent Systems, Tubingen

Introduction aux fausses nouvelles, viralité et impacts (Formation – Inscription gratuite pour devenir membre)

« Quels sont les visages des fausses nouvelles et de la désinformation? Pourquoi les fausses nouvelles deviennent-elles virales sur le web? Comment peut-on les débusquer? 

Cette formation offre des trucs pratiques pour vérifier si une information est fiable ou non avant de la croire ou de la partager. Elle permet de mieux comprendre le phénomène des fausses nouvelles et de mettre en place des trucs qu’utilisent les journalistes pour vérifier l’information. »

Groupes cibles : Enseignants, intervenants, bibliothécaires

CQÉMI (Centre québécois d’éducation aux médias et à l’information)

INTRODUCTION TO CRASH COURSE NAVIGATING DIGITAL INFORMATION #1 (Anglais)

« Nous adorons l’internet ! C’est une mine d’informations où nous pouvons apprendre à peu près n’importe quoi, mais c’est aussi un peu un puits d’informations qui peuvent être fausses ou trompeuses. » – (Traduction libre)

Groupes cibles : Élèves secondaires, cégeps, université

Crash Course

La balado – Dépister la désinfo

« Dans le cadre du projet Covid-19 : Dépister la désinfo, nous vous proposons 4 balados qui explorent le phénomène de la désinformation et des fausses nouvelles dans le contexte inusité de la pandémie mondiale.

Cette balado a été produite en collaboration avec la Fédération professionnelle des journalistes du Québec (FPJQ), l’agence de contenu 37e AVENUE et MonCarnet.com. »

Groupe cible : Citoyens

Agence Science-Presse

Le « deepfake » : quelles dérives possibles ?

« Avez-vous déjà entendu parler d’hypertrucage ou de « deepfake » ? Cette technique permet de modifier une vidéo ou un contenu audio de façon très réaliste à l’aide de l’intelligence artificielle. Il devient alors plus difficile que jamais de différencier le vrai du faux. Le guide suivant fera prendre conscience aux élèves que la frontière entre information et désinformation peut être facilement brouillée, en plus de les faire réfléchir sur des stratégies possibles pour remettre en question ce qu’ils voient. »

Groupes cibles : Personnels scolaire, étudiants

École branchée

Le deepfake : Rupture ou continuité ?

Formation sur les deepfakes et sur les stratégies nécessaires à leur identification. Proposition d’activités pédagogiques pour les enseignants.

Groupes cibles : Personnels scolaire, citoyens

INSPÉ (Institut national supérieur du professorat et de l’éducation : Académie de Lyon)

Les fakes news dans les médias du Québec : perceptions des journalistes

« Popularisées durant l’élection présidentielle des États-Unis en novembre 2016, les fake news (« infox » ou « infausses » selon les néologismes en langue française) se sont multipliées universellement au point de contaminer la circulation des informations factuelles. Cette étude présente une analyse des résultats d’un sondage mené auprès des journalistes professionnels du  Québec et de six entretiens semi-dirigés avec des rédacteurs en chef et directeurs de l’information de médias québécois. Les journalistes y affirment être préoccupés par ce phénomène et croient qu’il est nécessaire de mieux protéger la population contre la désinformation, notamment en formant les jeunes à l’école. Ils estiment que les médias traditionnels constituent de bons remparts contre l’invasion des fake news. Mais ils ne sont pas en faveur d’une législation, considérée comme incompatible avec le droit des citoyens à la liberté d’expression. Les rédacteurs en chef et directeurs de l’information partagent les  préoccupations des répondants au sondage et s’inquiètent quant à eux de la disparition des médias d’information, un phénomène qui pourrait faciliter la propagation des fausses nouvelles. »

Groupes cibles : Citoyens

Université de Sherbrooke (Mémoire de maîtrise en communication de Mathieu-Robert Sauvé)

October 2020: Misinformation, Disinformation, Hoaxes, and Scams (Anglais)

« Aidez les membres de la communauté du campus à apprendre à identifier les campagnes de désinformation et de désinformation et à éviter d’être victimes de canulars et d’escroqueries en ligne. » – (Traduction libre)

Groupe cible : Étudiants universitaires

Educause – Campus Security Awareness Campaign 2020

Portrait d’une infodémie Retour sur la première vague de COVID-19

« Ce rapport s’appuie sur une veille documentaire au cours de laquelle nous avons repéré plus de 500 textes, publiés entre mars et septembre 2020, et réalisé 9 entretiens auprès d’experts. Nous avions comme objectif de cerner les thèmes et pratiques émergentes dans la recherche et dans le débat public portant sur la production, la consommation et la propagation de mésinformation ou de désinformation concernant la COVID-19. »

Groupes cibles : Chercheurs, étudiants universitaires, médias

Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA)

Quiz: Should you share it? (Anglais)

« Nous pouvons tous faire de meilleurs choix concernant les informations que nous consommons, partageons et sur lesquelles nous agissons. Mais pouvez-vous faire la différence entre les messages des médias sociaux qui sont faux ou trompeurs et ceux qui sont crédibles ? Testez vos compétences en matière d’information avec ce quiz et aidez à arrêter le flot de désinformation. » – (Traduction libre)

Groupes cibles : Citoyens, éducateurs, médias

News Literacy Project

Se prémunir contre la désinformation : pistes pour développer les compétences informationnelles des étudiant·es

« Cet outil a été conçu pour que des bibliothécaires désireux d’aborder des thématiques liées aux fausses nouvelles et à la désinformation dans leurs formations puissent accéder facilement à un bassin de ressources diversifiées sur le sujet.

Les nombreuses ressources présentées dans l’outil pourraient aussi s’avérer très utiles pour du personnel enseignant de différents milieux et pour quiconque désire mieux comprendre le phénomène de la désinformation. »

Groupes cibles : Bibliothécaires, étudiants

Le groupe de travail de la Promotion du développement des compétences informationnelles (PDCI) du réseau de l’Université du Québec. 

Slowing The Infodemic : How to Spot COVID-19 Misinformation (link1)(link 2)(link 3). (Anglais)

« Un podcast intitulé Slowing the Infodemic : How to Spot COVID-19 Misinformation, ainsi qu’une courte vidéo d’accompagnement, une infographie et un guide de classe pour enseigner les compétences en éducation aux médias par le biais d’un apprentissage basé sur l’enquête. Grâce à ces ressources, les élèves acquerront des connaissances sur l’origine des informations courantes que nous acceptons comme des faits, sur leur rôle dans l’acceptation de connaissances sans enquête, sur le processus utilisé par les journalistes professionnels pour vérifier les informations et sur les compétences nécessaires pour réfléchir de manière critique aux messages médiatiques qui les entourent. » – (Traduction libre)

Groupes cibles : Élèves, éducateurs

National association for media literacy education (NAMLE) et REUTERS communications

Sur quels type de contenus peut-on tomber ?

« Internet regorge d’informations intéressantes – de choses à voir et à faire – et de nombreux contenus ont été conçus spécifiquement pour les enfants. Mais tout n’est pas adapté aux enfants et certaines choses peuvent leur sembler désagréables ou effrayantes. Internet est un lieu d’apprentissage formidable, mais tout ce qu’on y trouve n’est pas vrai ou sûr. Il faut apprendre à trouver des informations fiables et savoir faire la différence entre une opinion et un fait établi. »

Groupe cible : Enfants (élèves du niveau primaire)

École des réseaux sociaux

Teaching Critical Thinking Skills in the Age of Fake News (Anglais)

Audiobook et questions à répondre sur les fake news

Groupes cibles : Citoyens, élèves

Société internationale pour la technologie dans l’éducation (ISTE)

The Presidential Deepfakes Dataset (Anglais)

« Comment évaluer les techniques de criminalistique des médias pour détecter les deepfakes ? Nous présentons le Presidential Deepfakes Dataset (PDD), qui consiste en 32 vidéos, dont la moitié sont des vidéos originales et l’autre moitié sont manipulées avec des imitations audio, des synchronisations labiales synthétisées, des fausses informations politiques et des artefacts situationnels. Cet ensemble de données élargit le contexte sur lequel les systèmes d’analyse légale des médias de bout en bout peuvent être évalués. Par exemple, nous évaluons le modèle gagnant du DeepFake Detection Challenge sur le PDD et constatons qu’il classe avec précision 69 % des vidéos du PDD. Nous partageons cet ensemble de données publiquement pour que les chercheurs puissent évaluer leurs techniques dans l’intention de pré-bunker les futures tentatives de désinformation. » – (Traduction libre)

Groupe cible : Citoyens

MIT Media Lab Aruna Sankaranarayanan, Matthew Groh, Rosalind Picard et Andrew Lippman

Third annual national news literacy week (Jan. 24-28, 2022) (Anglais)

« Cet événement annuel souligne le rôle vital de la culture de l’information dans une démocratie et fournit aux publics les connaissances, les outils et les capacités nécessaires pour devenir plus compétents en matière d’information. Il vise également à inciter les consommateurs d’informations, les éducateurs et les étudiants à pratiquer la culture de l’information et à renforcer la confiance dans les médias d’information en consolidant le rôle du journalisme crédible.» – (Traduction libre)

Groupes cibles : Citoyens, éducateurs, médias

News Literacy Project

Vérification de contenus en ligne ?

Définition et conseils pour les parents. « Certains réseaux signalent les contenus médiatiques controversés, ce qui peut aider les utilisateurs à être plus critiques lorsqu’ils voient ces contenus. De nombreux réseaux sociaux disposent aussi d’outils pour signaler des contenus de désinformation. Si la désinformation sert à promouvoir des croyances ou des comportements blessants/néfastes, elle peut également faire l’objet d’un signalement. »

Groupe cible : Parents

École des réseaux sociaux

What Parents Need to Know about Deepfakes (Anglais)

Guide parental pour l’éducation aux médias et aux deepfakes des tout-petits.

« Un deepfake est un média extrêmement convaincant créé à l’aide d’une intelligence artificielle (IA), à partir de photos et d’enregistrements du sujet. Le nom vient de l’approche d’apprentissage profond de l’IA nécessaire pour les générer et du fait qu’ils sont utilisés pour créer du faux contenu. Les Deepfakes peuvent être réalisés sous forme de vidéos, d’images statiques et d’enregistrements audio – où la voix d’une personne est imitée avec précision pour donner l’impression qu’elle a dit quelque chose qu’elle n’a pas dit en réalité. Dans le guide, vous trouverez des conseils sur un certain nombre de risques potentiels tels que les fake news, la pornographie et l’utilisation frauduleuse. » – (Traduction libre)

Groupe cible : Parents

St Matthew’s Catholic Primary School

Comment reconnaître une fausse nouvelle ?

Infographie informative sur la désinformation par Elise Gravel pour les tout-petits, leurs parents, leurs proches, les enseignants, les éducateurs, etc.

Groupes cibles : Enfants, élèves et jeunes adolescents

Elise Gravel

CTRL+F – Ep.3. Le mystérieux deepfake (Balado)

« Naviguer les fausses nouvelles et le flot d’information sur Internet : c’est la mission de Matthieu et de Leïla dans le 3e épisode de CTRL+F, consacré aux mystères des deepfakes et des “fake news”. »

Groupe cible : Jeunes

Ubisoft Education

Detecting Deepfake Videos : An Analysis of Three Techniques (Anglais)

« Les récentes avancées des algorithmes de génération de deepfakes qui produisent des médias manipulés ont eu des implications dangereuses en matière de vie privée, de sécurité et de communication de masse. Les efforts pour combattre ce problème ont pris la forme de concours et de financement de la recherche pour détecter les deepfakes. Cet article présente trois techniques et algorithmes – LSTM convolutif, détection du clignement des yeux et histogrammes en niveaux de gris – utilisés lors de la participation au Deepfake Detection Challenge. Nous avons évalué les connaissances actuelles sur les vidéos deepfake, une version plus sévère des médias manipulés, et les méthodes précédemment utilisées, et nous avons trouvé que la technique des histogrammes en niveaux de gris était plus pertinente que les autres. Nous avons discuté des implications de chaque méthode développée et fourni des étapes supplémentaires pour améliorer les résultats donnés. » – (Traduction libre)

Groupe cible : Citoyens

Armaan Pishori, Brittany Rollins, Nicolas van Houten, Nisha Chatwani et Omar Uraimov

Es-tu à risque de partager des fausses nouvelles ? (Test)

Test/fiche pour dépister la désinformation.

Groupe cible : Jeunes

CURIUM – Pierre-Yves Villeneuve

Exploiting Visual Artifacts to Expose Deepfakes and Face Manipulations (Anglais)

« L’édition de visage de haute qualité dans les vidéos est une préoccupation croissante et répand la méfiance dans le contenu vidéo. Cependant, après un examen plus approfondi, de nombreux algorithmes d’édition de visages présentent des artefacts qui ressemblent aux problèmes classiques de vision par ordinateur qui découlent du suivi et de l’édition des visages. Par conséquent, nous nous demandons s’il est difficile d’exposer des visages artificiels à partir des générateurs actuels ? À cette fin, nous passons en revue les méthodes actuelles d’édition de visages et plusieurs artefacts caractéristiques de leurs pipelines de traitement. Nous montrons également que des artefacts visuels relativement simples peuvent déjà être très efficaces pour exposer de telles manipulations, notamment les Deepfakes et Face2Face. Puisque les méthodes sont basées sur des caractéristiques visuelles, elles sont facilement explicables même pour des experts non techniques. Les méthodes sont faciles à mettre en œuvre et offrent des possibilités d’adaptation rapide à de nouveaux types de manipulation avec peu de données disponibles. Malgré leur simplicité, les méthodes sont capables d’atteindre des valeurs AUC allant jusqu’à 0,866. » – (Traduction libre)

Groupe cible : Chercheurs

IEEE Xplore

Facing reality? Law enforcement and the challenge of deepfakes (Anglais)

« Le rapport fournit un aperçu détaillé de l’utilisation criminelle de la technologie deepfake, y compris leur utilisation potentielle dans des crimes graves tels que la fraude au PDG, la falsification de preuves et la production de pornographie non consensuelle. Il décrit également les difficultés rencontrées par les forces de l’ordre pour détecter et prévenir l’utilisation néfaste des deepfakes. Il montre que les services répressifs, les fournisseurs de services en ligne et d’autres organisations doivent élaborer leurs politiques et investir dans des solutions de détection et de prévention de la désinformation, et que les décideurs doivent également s’adapter à l’évolution de la réalité technologique. » – (Traduction libre)

Groupe cible : Citoyens

Observatory function of the Europol Innovation Lab

Fighting Misinformation About Coronavirus (Anglais)

Cette page Web regroupe plus de 40 articles traitant de la désinformation et de la COVID 19. On y retrouve une section générale, une section pour accompagner virtuellement les éducateurs, une section avec des leçons et des vidéos pour la literacy et finalement, des articles intéressants ou utiles pour les élèves et les éducateurs.

Groupes cibles : Élèves, éducateurs

NAMLE

Global Desinformation Index (GDI) (Anglais)
*Blog « Read Now (Anglais)

« L’internet a donné aux gens l’accès à de nouveaux outils et plateformes pour construire des communautés – et de nouvelles capacités pour dire la vérité au pouvoir. Pourtant, ces mêmes espaces sont utilisés à mauvais escient pour semer la division, la peur et la méfiance – et pour semer les graines de la désinformation. Il est temps de perturber, de défaire et de déclasser les sites de désinformation. Le Global Disinformation Index fournit aux annonceurs, aux entreprises ad tech et aux plateformes des notes fiables, non partisanes et indépendantes pour évaluer les risques de désinformation d’un site. » – (Traduction libre)

Groupes cibles : Compagnies, citoyens

Global Desinformation Index (GDI)

It matters how platforms label manipulated media. Here are 12 principles designers should follow (Anglais)

« Au sein du Partenariat sur l’IA et de First Draft, nous avons étudié en collaboration la manière dont les plateformes numériques pourraient traiter les médias manipulés avec des solutions de conception empiriquement testées et responsables. Bien que les définitions des « médias manipulés » varient, nous les définissons comme toute image ou vidéo dont le contenu ou le contexte a été modifié selon un spectre allant de « cheap fake » à « deepfake » (Data & Society) et qui peut potentiellement induire en erreur et causer des dommages. En particulier, nous nous interrogeons sur les risques et les avantages potentiels des labels : le langage et les indicateurs visuels qui informent les utilisateurs de la manipulation. Quelles sont les meilleures pratiques pour les plateformes numériques qui appliquent (ou n’appliquent pas) des étiquettes aux médias manipulés afin de réduire les dommages causés par la désinformation ? » – (Traduction libre)

Groupe cible : Citoyens

AI

The Coronavirus Quiz. Misinformation spreads faster than a virus (Anglais)

« Notre équipe a surveillé plus de 120 mots-clés dans plus de 175 000 conversations publiques sur les médias sociaux afin d’identifier les allégations de santé et de sécurité les plus courantes qui ont touché le plus grand nombre de personnes. À partir de là, nous avons identifié les 20 principales rumeurs et trouvé des réponses auprès de ressources sanitaires fiables. » – (Traduction libre)

Groupe cible : Citoyens

Digital Public Square

Deepfake Detection Challenge (DFDC) (Anglais)
Deepfake Detection Challenge Dataset (Anglais)

« L’objectif de ce défi est d’inciter les chercheurs du monde entier à mettre au point de nouvelles technologies innovantes permettant de détecter les « deepfakes » et les médias manipulés. » – (Traduction libre)

Groupe cible : Citoyens

AWS, Facebook, Microsfot, the Partnership on AI’s Media Integrity Steering Committee

The Deepfake Detection Challenge : Insights and Recommandations for AI and Media Integrity (Anglais)

« Ces observations et recommandations soulignent l’importance de la coordination et de la collaboration entre les acteurs de l’écosystème de l’information. Les journalistes, les vérificateurs d’informations, les décideurs politiques, les organisations de la société civile et d’autres personnes en dehors des plus grandes entreprises technologiques, qui sont confrontés à l’utilisation potentiellement malveillante des médias synthétiques dans le monde entier, doivent avoir un accès accru à des outils de détection techniques utiles et à d’autres ressources pour évaluer le contenu. Au même moment, ces outils et ressources doivent être inaccessibles aux adversaires qui s’efforcent de générer des contenus synthétiques malveillants échappant à la détection. Globalement, les modèles et outils de détection doivent être fondés sur la dynamique réelle de la détection des médias synthétiques et sur une compréhension éclairée de leur impact et de leur utilité. » – (Traduction libre)

Groupe cible : Citoyens

Partnership on AI

Twitter API

« Créer de faux sites d’informations, reprenant les codes et les marques de médias connus pour tromper le lecteur. » « Un crawler qui navigue dans les relations d’abonnement de Twitter pour identifier des groupes de comptes suspects à partir d’un compte donné. Il utilise l’API gratuite Twitter et peut donc être facilement déployé. »

Groupe cible : Citoyens

Ambassadeur pour le numérique

Vous doutez ? Vérifiez. Remettez en question

Présentation de stratégies et de sites web qui permettent d’identifier et de prévenir activement la désinformation.

Groupes cibles : Citoyens, jeunes

Actufuté et la FJC (La Fondation pour le journalisme canadien)

What Can The Law Do About ‘Deepfake’? (Anglais)

« La technologie Deepfake a des applications utiles, comme la création de vidéos satiriques et humoristiques ou l’aide aux effets spéciaux des films et à la production de contenu vidéo.  Cependant, la création de vidéos réalistes et non consensuelles (par exemple, en faisant en sorte que l’image d’une personne soit « transposée » ou « transplantée » sur la parole et/ou le mouvement d’autres personnes) et la facilité avec laquelle de telles vidéos peuvent être réalisées ont déclenché des signaux d’alarme dans le monde numérique.  En réaction, plusieurs grandes plateformes sociales ont révisé leurs politiques d’utilisation afin d’interdire aux utilisateurs de télécharger ou de partager de telles vidéos non consensuelles créées par la technologie deepfake. » – (Traduction libre)

Groupe cible : Citoyens

McMillan

Recueil des initiatives par

Mise en page
par