Intelligence artificielle en recherche: la part de l’humain, l’œuvre de la machine?
L’éducation vaut mieux que les mesures punitives pour réduire le risque de glissement éthique associé aux outils de l’intelligence artificielle
Faire appel à des outils de l’intelligence artificielle (IA) pour produire des résumés d’articles scientifiques qu’on souhaite citer dans une étude ou pour écrire une partie d’article scientifique, de rapport ou de demande de subvention, voilà qui serait bien utile à des chercheurs à court de temps qui veulent accroître leur productivité. Mais où tracer la limite entre ce qui est une production humaine et celle d’une machine?
En cette ère où la frontière entre le vrai et le faux s’estompe au point de mettre à mal la crédibilité et l’intégrité des savoirs scientifiques, il est grand temps de réfléchir à la façon d’encadrer l’usage de l’IA afin de profiter de sa puissance tout en évitant les dérives éthiques dans lesquelles elle pourrait nous entraîner.
C’est la raison pour laquelle le comité organisateur de la Semaine de la conduite responsable en recherche a choisi de présenter une table ronde sur la question, animée par la professeure Lyse Langlois de la Faculté des sciences sociales, et d’en faire l’activité phare de la programmation cette année. Près de 200 personnes ont participé à cette rencontre présentée en ligne le 1er mai.
D’entrée de jeu, Nadia Naffi, professeure à la Faculté des sciences de l’éducation de l’Université Laval et spécialiste de l’application éthique, critique, responsable et durable du numérique et de l’intelligence artificielle, a reconnu les mérites des outils de l’IA en recherche.