Idées retenues du Sommet mondial AI Americas 2020 (English Version Forthcoming)
Le 25 et 26 Mars 2020 s’est déroulé le premier Sommet mondial AI Americas en mode virtuel dû à la pandémie COVID19. Les délégués ont suivi les présentations à partir de l’application par Inspired Minds et se sont réseautés avec des experts dans les différents domaines en lien avec l’intelligence artificielle. Ce qui suit fait état de présentations pertinentes partagées lors de cet évènement.
Fighting AI BIAS: How to obtain secure and high quality training data
Dans son exposé intitulé “Fighting AI BIAS: How to obtain secure and high quality training data”, Audrey Boguchwal, cheffe de produit senior à Samasource, explique comment les meilleures organisations obtiennent des données pour l’apprentissage profond (deep learning) de qualité supérieure sans compromettre la confidentialité ou la sécurité des personnes.
Les données massives sont la pierre angulaire de l’IA et de l’apprentissage profond et il est difficile d’obtenir des données de qualité. Les biais au niveau des données peuvent se traduire par des algorithmes qui ne fonctionnent pas comme souhaité.
Ainsi, Mme Boguchwal a exposé trois catégories de biais :
- Biais d’ensemble de données: qui correspond au fait qu’un grand ensemble de données ne fournit pas suffisamment d’informations au modèle pour apprendre le problème ou lorsque les données ne sont pas représentatives de la réalité d’une manière ou d’une autre.
- Biais de formation: est le résultat d’une mauvaise qualité ou d’un étiquetage des données incohérent qui pourrait provenir d’instructions d’étiquetage des données peu claires.
- Biais algorithmique: correspond à l’algorithme lui-même tel que les mauvaises prédictions ou les mauvais résultats.
Toutefois, les algorithmes utilisant des données biaisées ont un impact considérable sur les personnes utilisant la technologie et les décisions qu’elles prennent. Alors, une stratégie d’obtention de données de haute qualité sans biais (ou le moindre possible) doit:
- Déterminer les besoins en données,
- Développer des règles de formation efficaces pour couvrir les cas d’utilisation,
- Diversifier les données pour couvrir les cas marginaux et éviter les biais,
- Faire évoluer des règles et obtenir plus de données au fur et à mesure qu’un modèle apprend,
- Considérer l’approvisionnement légal et éthique.
Par suite, il faut s’assurer d’un approvisionnement éthique et d’un traitement sécurisé des données ainsi que des contrôles de qualité rigoureux.
Dans le cadre des différentes formations conçues et développées en utilisant des systèmes d’IA, il est indispensable que les concepteurs pédagogiques soient sensibilisés quant à la valeur des données et les risques associés au fait d’avoir des données biaisées et de mauvaise qualité. Mettre en place une stratégie efficace de collecte de données est essentielle
The Journey to AI: Overcoming challenges and turning AI aspirations into outcomes
Une autre présentation portant sur la question de l’importance des données dans l’IA est celle de Steve Astorino, Vice-président du développement, des données et de l’IA, de la gestion des données hybrides et du Canada Lab IBM, intitulée: “The Journey to AI: Overcoming challenges and turning AI aspirations into outcomes”.
Astorino a expliqué que les données alimentent la transformation numérique. Les données sont décrites comme la prochaine ressource mondiale. Pourtant, seulement 15% des entreprises tirent la valeur dont elles ont besoin de leurs données. Il a présenté la courbe de maturité en matière d’adoption des nouvelles technologies.
La première étape était centrée sur la réduction des coûts et la façon dont certaines entreprises développent certains processus afin d’atteindre cet objectif. Au fil du temps, nous sommes passés à une phase appelée modernisation. Il s’agissait de l’intelligence d’affaires et de l’entreposage de données. De nombreuses entreprises sont toujours au niveau de cette étape aujourd’hui.
À mesure que nous avancerons sur la courbe de maturité, nous irons davantage dans une organisation ou une phase axée sur la perspicacité. Les utilisateurs pourront alors effectuer leurs propres analyses en libre-service.
Mais l’objectif final est d’entrer dans une phase de transformation où nous utilisons l’IA pour générer de nouveaux modèles commerciaux ou de nouvelles applications commerciales qui bouleversent les activités des entreprises ainsi que celles de leurs concurrents.
51% des entreprises sont toujours bloquées dans la phase d’expérimentation, ce qui est un énorme problème. Elles ont introduit le système, mais ne savent pas vraiment quoi en faire et ne savent pas comment entrer dans la phase de production.
Trois facteurs expliquent cette situation:
- Les données elles-mêmes: 60% ont du mal à gérer la qualité des données,
- Les compétences et talents: 62% sont mis au défi d’acquérir des talents et des compétences et c’est un vrai problème en raison d’une énorme pénurie de scientifiques des données,
- Le scepticisme et la confiance dans les systèmes et processus d’IA : 62% ont besoin d’une approche de la préparation à la production d’IA.
De nombreuses affirmations existent selon lesquelles les modèles sont biaisés, mais quand nous regardons le biais, il est en fait introduit par les données et les données sont elles-mêmes créées par des humains.
Encore à ce niveau, le rôle des experts en technologie éducative est important lors de la phase de la collecte de données. L’accès aux données de qualité conditionne la réussite de l’implantation efficace de l’IA.
Ce concept de qualité des données, amène également à réfléchir sur un autre sujet largement débattu dans le cadre de ce Sommet mondial AI Americas 2020, à savoir la question de la confiance dans les systèmes d’IA.
What does it take for humans to trust AI?
La table ronde sur le thème “What does it take for humans to trust AI?” dans laquelle a participé Fiona Mcevoy, Ajung Moon, Brian Cantwell Smith, Tobias Rees et Yves Boussemart a été d’un intérêt capital.
Selon Yves Boussemart, « nous faisons déjà confiance à l’IA, que nous le pensions ou non. La meilleure question serait de savoir quelles sont les applications de l’IA auxquelles on ne devrait pas faire confiance? »
L’acceptation de plusieurs systèmes peut dépendre du niveau de maturité des utilisateurs. Ces derniers doivent avoir la capacité de se questionner sur l’utilité de l’IA et être en mesure de comprendre l’impact de certains algorithmes et certains systèmes d’IA.
Selon Brian Cantwell Smith et Ajung Moon, si on doit faire confiance à un système d’IA, cela devrait être uniquement aux éléments que ce système est capable d’accomplir. Toutefois, nous devons faire très attention aux attentes que nous donnons aux systèmes et vérifier le niveau de satisfaction de ces dernières. Certaines personnes ont des attentes qui ne sont pas justifiées par ce dont la technologie est réellement capable de faire. Ainsi, quelles attentes devons-nous avoir vis-à-vis de ces systèmes d’IA?
Selon Tobias Rees, certaines personnes pensent que nous devons construire une IA qui pense en tant qu’humain et d’autres pensent que nous devons construire une IA qui pense et apprend en tant que machine. Ce serait une sorte d’intelligence non humaine que nous aurons besoin. Nous avons déjà des machines pouvant effectuer les mêmes tâches que l’humain, ce qui serait interessant c’est d’avoir des machines qui peuvent réaliser des choses que les humains ne pourraient jamais faire. La colaboation humain machine sera un élémemt très puissant.
Un de nos rôles comme concepeurs pédagogiques est de préparer l’humain à collaborer avec cette intelligence qui n’est pas humaine d’une façon critique et responsable. Mais avant tout, nous devons commencer par être prêts nous mêmes pour une telle collaboration et comprendre ses dangers, ses défis ainsi que ses avantages.
Banking on AI – how AI is impacting the financial services sector
Une autre table ronde s’est orientée aux défis de la confiance et des considérations éthiques associées à l’IA dans le secteur des services bancaires “Banking on AI – how AI is impacting the financial services sector”. Les participants dans cette table ronde sont Amanda Parker, Ashee Sarin, Haydar Talib, Jose Murillo et Zemfira Khisaeva.
Selon les participants, l’IA est utilisée pour identifier rapidement les zones à risque dans le secteur des services financiers.
Certains ont développé un système de sécurité qui intègre tous les canaux d’engagement que les institutions financières utilisent avec leurs clients. Ces systèmes fournissent un moyen d’authentification de leurs clients, en utilisant principalement leurs voix. Cette technologie de reconnaissance vocale aide les agents dans leur travail et permet de créer une expérience agréable pour les personnes en général.
Une autre technologie qu’ils ont développée est un système d’IA d’agent expert. C’est une sorte d’assistant pour les agents. Ce système d’apprentissage peut apprendre des interactions réelles entre les individus et les transforme en conseils qui apparaissent dans des contextes spécifiques avec les conversations des clients.
L’IA est également utile lorsque nous parlons de fraude. Les systèmes de détection de fraude peuvent en être un exemple. Ils traitent un grand volume d’appels téléphoniques et analyse le contenu vocal, la langue utilisée par les utilisateurs, etc. Tous ces facteurs peuvent produire une alerte. Cette activité ne se faisait pas par l’humain et elle contribue en fait à créer et à justifier le travail de l’équipe d’analystes en fraude dans chaque institution financière.
L’IA est également utilisée dans la modélisation des risques et le suivi et l’évaluation régulière des clients.
Compte tenu des impacts des systèmes d’IA, comment les utilisateurs internes vont-ils les utiliser et comment vont-ils faire confiance à leurs résultats?
L’un des participants a reconnu que lorsqu’ils sont passés à des processus plus automatisés exploitant l’intelligence artificielle des systèmes, ils n’ont pas pensé à la façon dont leurs utilisateurs internes l’utiliseraient et à quoi ils feraient confiance.
Les experts ont également évoqué les considérations éthiques autour de l’IA. Pour avoir confiance, nous devons être éthiques, réfléchir sur les possibilités et les opportunités offertes par l’IA.
Il est important de comprendre le problème qu’on essaye de résoudre à travers les systèmes d’IA. Quelles sont les attentes par rapport à ces systèmes? Que pouvons-nous faire avec ces systèmes? et comment collaborer avec ces systèmes pour aboutir à des meilleures performances ?
Comme concepteurs pédagogiques notre rôle est primordial dans l’adoption des nouveaux systèmes et l’adaptation à ces nouvelles façons de faire une fois ces systèmes sont adoptés. Que ce soit les utilisateurs internes, ou agents oeuvrant dans le contexte des banques, ou les utilisateurs externes qui forment la clientèle de ces banques, la gestion du changemnet est au coeur de la transition numérique.
Une sensibilisation quant aux attentes, les défis et les avantages de l’utilisation des systèmes d’IA est importante pour établir une certaine confiance de base qui permetra de déclencher la collaboration humain/intelligence artificielle.