Aller au contenu principal

Apprentissage inclusif et inégalités sociales

13 mars 2022

On considère l’apprentissage inclusif comme étant un ensemble de pratiques permettant aux apprenant.e.s de se sentir engagé.e.s, inclus.e.s et soutenu.e.s dans leurs apprentissages à travers des approches pédagogiques et des environnements adaptés à leurs besoins spécifiques. Peu importe le type d’apprenant, les opportunités d’apprentissage inclusives prennent non seulement en compte les aspects psychologiques, sociaux et culturels des individus, mais aussi les enjeux de justice sociale comme le sexisme, le racisme, ou le capacitisme. Avec l’émergence des technologies numériques, on vient répondre à différents besoins qui favorisent l’inclusion des différent.e.s apprenant.e.s. Par exemple, des outils numériques sont offerts pour aider à la lecture et à l’écriture pour les élèves avec troubles d’apprentissage ou en situation de handicap, des communautés virtuelles sont créées pour engager les apprentissages collaboratifs entre des élèves de différentes provenances ou des parcours de formation personnalisés sont générés grâce à l’intelligence artificielle.

Toutefois, malgré de multiples efforts déployés pour assurer l’éducation inclusive, égalitaire et de qualité, on observe que les individus en situation de handicap, de vulnérabilité ou issus des communautés marginalisées vivent encore de l’exclusion et de la discrimination face à leurs opportunités d’apprentissage, malgré les promesses des avancées technologiques. 

Une question d’accès dans un premier temps         
 
Avant même de pouvoir bénéficier des attraits technologiques venant répondre aux différents besoins individuels, il est important d’aborder le problème d’accessibilité aux technologies de l’information et des communications. Les personnes issues des communautés marginalisées, comme les personnes de couleur ou à faible revenu sont les premières affectées par cette fracture numérique. Par exemple, certaines compagnies d’internet discriminent, consciemment ou non, des consommateur.rice.s provenant de quartiers racisés ou défavorisés en les excluant de leurs services, une pratique appelée redlining numérique. Sans étonnement, les femmes sont aussi particulièrement touchées par cette disparité, avec 300 millions moins de femmes ayant accès à internet via un téléphone mobile que les hommes. 

Ces mêmes groupes marginalisés ont particulièrement été atteints par cette disparité durant la pandémie, qui, comme le reste du monde, devaient accéder à internet pour poursuivre leurs études. Sans internet, il devenait donc impossible de participer aux cours, d’accéder à l’information nécessaire pour la complétion des travaux scolaires ni engager avec les membres de la classe en raison de la distanciation physique recommandée. On a également pu démontrer que les étudiant.e.s ayant subi des pertes au niveau de l’apprentissage venaient d’environnements défavorisés. La division numérique affecte ainsi les opportunités d’apprentissage et donc, nécessairement, les opportunités de carrière dans le futur.  

En effet, les emplois en sciences, technologies, ingénierie et mathématiques (STEM) sont en demande plus que jamais auparavant, et on peut facilement en déduire que les individus n’ayant pas les ressources pour développer la littératie numérique pourront difficilement occuper ce marché. Par exemple, c’est moins de 20 % des femmes et moins de 5 % des personnes racisées et indigènes qui, à ce jour, occupent un poste dans l’industrie des technologies. La présence, ainsi majoritairement blanche et masculine dans ce secteur vient donc inévitablement jouer un rôle dans le développement des systèmes d’intelligence artificielle. 

Algorithmes : générateurs d’exclusion?  

De manière générale, l’intelligence artificielle se dote de principes éthiques comme la transparence, la sécurité et l’impartialité dans le design de ses systèmes. Toutefois, puisque ces systèmes sont développés majoritairement par des individus socialement homogènes et que les biais font partie inhérente de la condition humaine, ils se reflètent naturellement et inévitablement dans les algorithmes et données récoltées. On n’a qu’à penser à ce célèbre algorithme créé par Amazon dans lequel il avait appris à systématiquement discriminer les femmes candidates à certains emplois.

Au niveau de l’éducation, l’intelligence artificielle peut être utilisée de diverses manières : afin de venir en aide aux étudiant.e.s, pour cibler leurs besoins individuels, pour leur offrir des aides financières adaptées, pour prédire leur rétention aux cours ou pour prédire leurs risques d’échec. Toutefois, on a observé dans certaines données générées par les algorithmes que les personnes blanches obtenaient davantage de taux positifs de prédiction de succès scolaire que les personnes de couleur, et que ces dernières avaient des taux négatifs de décrochage plus importants que leurs collègues blancs. Les taux s’atténuaient lorsqu’on enlevait la donnée raciale de ces modèles. On peut penser que ces représentations faussées peuvent avoir des impacts sur les opportunités d’apprentissage et de succès des individus marginalisés. Ainsi, en utilisant des algorithmes qui chercheraient à assurer l’égalité ou à réduire le niveau de biais, on pourrait améliorer les opportunités des apprenant.e.s qui seraient autrement désavantagé.e.s, mais encore faut-il collecter les bonnes données.

Des pistes de solution… 

La technologie a certainement le pouvoir de démocratiser l’accès à l’éducation et à l’information afin que tous puissent prendre avantage de celle-ci. En prenant conscience et en reconnaissant que des discriminations systémiques se manifestent en éducation tout comme dans les autres sphères sociales, nous pouvons entamer un dialogue et une démarche pour assurer l’égalité de droit à l’apprentissage et l’accès équitable et inclusif à ces technologies éducatives. Voici quelques pistes de solutions pouvant être employées en tant que (futur.e.s) technopédagogues : 

  • Reconnaître que les biais sont inévitables  
  • Mettre en doute et vérifier les sources, les données, leur récolte et l’interprétation qu’on en fait, particulièrement lorsqu’elles concernent les groupes marginalisés 
  • Utiliser des données féministes  
  • Offrir des opportunités de parole et de décision aux personnes issues des communautés marginalisées dans les équipes de développement des systèmes d’intelligence artificielle 
  • Encourager et appuyer les mesures organisationnelles et gouvernementales pour atténuer la fracture numérique  
  • Militer pour la diversité, l’équité et l’inclusion en général! 

En prenant en considération ces solutions, peut-être pourrons-nous considérer l’accès aux opportunités d’apprentissage via les technologies numériques comme un droit plutôt qu’un privilège.