L’Association Edteq a tenu une conférence le mercredi 5 octobre portant sur l’aspect éthique que revêt l’intelligence artificielle en éducation. La conférence a été animée par Carolanne Tremblay, directrice du secteur technopédagogique de la plateforme Dalia chez Optania et Simon Collin, professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal, titulaire de la Chaire de recherche du Canada sur l’équité numérique en éducation et chercheur au Centre de recherche interuniversitaire sur la formation et la pratique enseignante. En voici un résumé.
Carolanne Tremblay est convaincue que l’intelligence artificielle (IA) dans le domaine éducatif a pour but d’éviter la surcharge cognitive des acteurs éducatifs tout en garantissant une réduction des tâches répétitives. « L’intelligence artificielle en éducation doit redonner le temps aux intervenants scolaires de construire des relations bienveillantes avec les apprenants et de les aider à atteindre leur plein potentiel ».
4 grands domaines d’application
Elle identifie 4 grands domaines d’application concrète de l’IA en éducation :
- Les modèles prédictifs
Ce sont des outils qui aident les intervenants scolaires à identifier de manière préventive les situations à risque tels quel l’abandon ou encore l’échec scolaire des apprenants. Pour ce faire, les IA génèrent un portrait de la population étudiante afin de déterminer « les modèles » de l’échec de l’abandon et de réagir avant que cela ne se concrétise pas.
- Les plateformes d’apprentissage adaptatives
Elles permettent d’estimer la connaissance d’un apprenant sur un sujet à partir de données observables. De plus, elles permettent l’ajustement du cheminement scolaire de l’apprenant afin de travailler ses faiblesses et mettre en valeur ses forces. Tout cela a pour but de favoriser un enseignement individualisé et aboutir à une différentiation pédagogique.
Un exemple de plateforme adaptative : Adapt Coaching Actuaries
- Les robots conversationnels (chatbot)
Ces outils sont capables d’offrir un soutien aux apprenants et aux membres du personnel indépendamment du jour ou de l’heure. Ces derniers facilitent le contact avec les jeunes et sont conçus pour répondre à un besoin spécifique.
Deux exemples de robots conversationnels : FLO de Alloprof et ALI de Optania.
- Les outils d’analyse statistiques en temps réel
Destinés au personnel éducatif en contact direct avec les étudiants, ces outils permettent de dresser un portrait de la situation d’apprentissage en temps réel des apprenants. Tout cela dans l’optique de réaliser des interventions ponctuelles dès qu’une situation risque de s’aggraver.
Un exemple d’outil d’analyse : Mozaïk-Portail qui offre aux membres du personnel un module de veille active à propos des élèves en temps réel.
Un regard sur l’aspect éthique
Dans une deuxième partie de la présentation, Simon Collin a apporté un regard sur l’aspect éthique lié à l’utilisation des systèmes d’intelligence artificielle (SIA). En effet, M. Collin préconise l’intégration des enjeux éthiques dès la conception d’un SIA afin d’éviter tout risque de problème par la suite.
Il identifie 6 sources de tensions susceptibles de survenir lors de l’intégration de SIA en éducation :
- La complexité des situations éducatives / la standardisation technique
La standardisation pourrait mener à une industrialisation de l’éducation ou encore à un manque d’adaptabilité des SIA aux situations éducatives.
- L’agentivité des acteurs éducatifs / automatisation technique
L’automatisation est susceptible de mener à une baisse de l’agentivité des acteurs éducatifs par un cadrage accru de leurs rôles. De plus, les SIA pourraient imposer un contenu ou une pédagogie qui ne seraient pas forcément adéquats à l’élève ou à son mode d’apprentissage.
- Justice scolaire / rationalité technique
Bien que performants, les SIA peuvent manquer de considération pour le bien-être des acteurs éducatifs. Il existerait aussi un manque de diversité dans les équipes de conception des SIA et un manque de considération pour l’équité, la diversité et l’inclusion en éducation.
- Gouvernance scolaire / conception technique
Il existe un manque de clarté quant à la responsabilité morale et légale des équipes de conception, des acteurs éducatifs et des institutions. De plus, une ambiguïté quant à la propriété des données peut survenir.
- Intelligibilité humaine / opacité de l’IA
Il est compliqué d’expliquer les résultats d’un SIA. Simon Collin souligne également le manque de transparence quant à l’interprétation et l’usage des résultats générés par les SIA. Enfin, le manque de confiance des utilisateurs envers les SIA peut biaiser le rendu.
- Dignité des acteurs éducatifs / exploitation des données
Un problème de consentement est généré dans la mesure où dans certains cas, il y a une impossibilité de retirer son consentement. Simon Collin parle alors de collecte de données trop nombreuses ou trop sensibles de la part des SIA qui ne sont pas aussi fiables et aussi robustes que ce que l’on pourrait penser.
Simon Collin prône l’implication de tous les acteurs (concepteurs, chercheurs, acteurs éducatifs…) pour une meilleure prise en compte des enjeux éthiques des SIA en éducation.