ANNONCE
L'École branchée, un organisme à but non lucratif
ANNONCE

L’intelligence artificielle en éducation : enjeux de justice

Dans ce texte, Simon Collin et Emmanuelle Marceau aborde l'intégration de l'IA en éducation. Selon eux, il devient nécessaire d'accompagner le personnel enseignant dans une prise en compte proactive des enjeux éthiques et critiques que l'IA soulève.

Publié le :

Classé dans :

Attention! Ce contenu a été mis à jour il y a plus de 3 ans. Il pourrait contenir des liens qui ne fonctionnent plus. N'hésitez pas à nous écrire si vous en trouvez!

Par Simon Collin, Université du Québec à Montréal (Canada) et Emmanuelle Marceau, Cégep du Vieux Montréal-CRDP (Canada)

Introduction : potentiel del’intelligence artificielle pour l’éducation

L’intelligence artificielle (IA) suscite un intérêt pédagogique et scientifique croissant depuis une trentaine d’années, qui s’est accéléré récemment à la suite de l’amélioration de la performance technique de l’IA (Becker, 2018).

Dans leur revue systématique de la littérature, Zawacki-Richter et al. (2019) identifient quatre applications principales de l’IA en enseignement supérieur :

1/le profilage et la prédiction (p. ex., admission à un programme d’études, décrochage scolaire);

2/les systèmes de tutorat intelligent (p. ex., enseignement de contenus pédagogiques, rétroactions);

3/la mesure et l’évaluation (p. ex., notation automatique, engagement scolaire);

4/et les systèmes adaptatifs et personnalisés (p. ex., recommandation et sélection de contenus personnalisés).

En revanche, les enjeux éthiques et critiques que soulève l’IA sont peu étudiés en enseignement supérieur (Zawacki-Richter et al., 2019), et en éducation plus largement (Krutka, 2021). Souhaitant contribuer à cette réflexion émergente, nous proposons d’aborder quelques enjeux éthiques et critiques de l’IA, sans toutefois prétendre à l’exhaustivité, ainsi que de formuler quelques pistes d’action permettant de mieux les prendre en compte, tant du point de vue de la conception que de l’usage.

Ce faisant, il importe de garder en tête que les enjeux énumérés ci-dessous ne sont pas, pour la plupart, spécifiques à l’IA dans la mesure où ils se posent aussi pour d’autres technologies. Qui plus est, on les retrouve dans d’autres sphères de la société où l’IA est utilisée. Ces enjeux tendent toutefois à être amplifiés par les développements actuels de l’IA et à se décliner de manière singulière en éducation, ce qui justifie à notre sens la pertinence d’une réflexion circonscrite à l’IA en éducation.

Quelques enjeux éthiques et critiques de l’IA en éducation

Les enjeux éthiques et critiques que soulève l’IA en éducation sont multiples et ont des origines diverses. Un premier type d’enjeux est lié aux données massives que nécessite l’IA, lesquelles peuvent induire des biais éventuels et posent la question du respect de la vie privée des élèves et du personnel scolaire (Andrejevic et al., 2020 ; Perrotta et al., 2020). Krutka (2021) prend l’exemple de la suite éducative de Google, qui collecte des données sans consentement libre et éclairé des élèves et du personnel scolaire (en contradiction avec leurs propres politiques et celles des provinces et des états) et les exploite de manière opaque. Les données des élèves et du personnel scolaire sont donc utilisées à leur insu, causant ainsi un manquement au respect de leur vie privée.

Par ailleurs, l’IA est principalement produite par des entreprises privées plutôt que par des instances scolaires (Williamson et al., 2020 ; Selwyn et al., 2020), et principalement étudiée par des chercheur.e.s en informatique ou en sciences, technologies, ingénierie et mathématiques plutôt que par des chercheur.e.s en sciences de l’éducation (Zawacki-Richter et al., 2019). Cette situation génère un deuxième type d’enjeux éthiques et critiques relatif aux expertises et aux représentations éducatives mobilisées par les équipes de conception.

En dehors de l’éducation, plusieurs études ont déjà souligné le manque de diversité au sein des équipes de conception, ce qui se traduit par des biais de représentativité allant de la sous-représentation de certains groupes sociaux à leur discrimination, stigmatisation ou exclusion. C’est ainsi qu’en 2015, l’algorithme de Google photos a associé une photo de deux personnes noires américaines au tag « gorilles », faute d’avoir été suffisamment entraîné à identifier des visages à la peau foncée (Plenke, 2015).

Finalement, l’automatisation croissante de l’IA implique que cette dernière est en mesure de prendre en charge une part croissante des actions pédagogiques qui reviennent habituellement aux élèves et au personnel scolaire (Selwyn, 2019). Se pose alors un autre type d’enjeux éthiques et critiques relatifs à l’autonomie et au jugement professionnels des enseignantes et enseignants, ainsi qu’à l’agentivité des élèves en fonction de la distribution des tâches entre eux et l’IA.

À titre d’exemple, citons le cas des systèmes de gestion des comportements rapporté par Livingtsone et Sefton-Green (2016). Les systèmes de gestion des comportements permettent aux enseignant.e.s de documenter les comportements nuisibles des élèves, qui sont ensuite compilés et signalés automatiquement à l’administration scolaire en vue d’appliquer des conséquences proportionnelles.

Faute de temps en salle de classe, certain.e.s enseignant.e.s documentent les comportements après les cours, parfois sans en avoir informé les élèves concerné.e.s. Les élèves peuvent donc être mis.es en retrait pour une suite de comportements nuisibles dont elles ou ils n’ont pas souvenir, ce qui met à mal les principes mêmes de cohérence et de justice, en éducation.

Prévenir les enjeux éthiques et critiques de l’IA : de la conception à l’usage

De ces types d’enjeux éthiques et critiques, il est possible d’esquisser quelques pistes de réflexion et d’action. En premier lieu, ces enjeux gagnent à être pris en compte dès la phase de conception, afin de prévenir autant que possible des retombées négatives éventuelles lors de l’usage. On peut alors se poser la question suivante : dans quelle mesure les équipes de conception intègrent-elles des expertises et des représentations éducatives lorsqu’elles développent des technologies impliquant l’IA? Et dans quelle mesure ces expertises et représentations éducatives sont-elles représentatives de la diversité et de la singularité des milieux scolaires québécois?

Un premier pas pour s’en assurer consiste, pour les équipes de conception, à opter pour des modèles « centrés usager» (p. ex., Labarthe, 210) dans le but de maximiser la prise en compte des expertises et des représentations éducatives et de préserver la finalité éducative des finalités économiques et techniques. Un pas complémentaire consiste à adopter et respecter des principes éthiques de conception, comme le fait d’informer systématiquement et explicitement les usager.e.s lorsqu’elles ou ils sont en interaction avec un système d’intelligence artificielle.

Sur le plan de l’usage, sensibiliser les élèves et le personnel scolaire aux enjeux de l’IA en éducation implique d’intégrer une dimension éthique et critique explicite à la formation aux technologies. Pour être complète, cette dimension gagnerait à ne pas se limiter aux « bons usages » de l’IA, mais à s’articuler autour de la compréhension des interactions entre la conception et l’usage de l’IA d’une part, et entre les usages et leurs implications éducatives et sociales d’autre part.

Par exemple, le modèle technoéthique de Krutka et al. (2019) ouvre une voie intéressante en formation initiale et continue des enseignants : pour déterminer si une technologie donnée est éthique, il propose une analyse des dimensions éthique, légale, démocratique, économique, technologique et pédagogique, guidée par des questions, ainsi que des éléments à considérer et des applications pratiques à intégrer à la formation des enseignants.

Pour ne pas conclure

L’intégration de l’IA en éducation est relativement récente de sorte que l’opérationnalisation de son potentiel reste en grande partie à venir. Pour l’orienter, il nous semble nécessaire de l’accompagner d’une prise en compte proactive des enjeux éthiques et critiques que l’IA soulève, en ancrant cette dernière dans le cadre d’une réflexion sur la justice. À ce titre, une formation à l’éthique du personnel scolaire mérite d’être mise de l’avant afin de l’outiller au mieux pour intervenir et interagir dans un monde en pleine mouvance.

Bibliographie

  • Andrejevic, M., et Selwyn, N. (2020). Facial recognition technology in schools: critical questions and concerns. Learning,Media and Technology, 45(2), 115–128. https://doi.org/10.1080/17439884.2020.1686014
  • Becker, Brett. (2018). Artificial Intelligence in Education: What is it, Where is it Now, Where is it Going? In B. Mooney. Ireland’s Yearbook of Education (pp. 42-46). Dublin : Education Matters.
  • Krutka, D. G., Heath, M. K., et Staudt Willet, K. B. (2019). Foregrounding technoethics: Toward critical perspectives in technology and teacher education. Journal of Technology and Teacher Education, 27(4), 555–574
  • Krutka, D.G., Smits, R.M. et Willhelm, T.A. (2021) Don’t Be Evil : Should We Use Google in Schools?. TechTrends. https://doi.org/10.1007/s11528-021-00599-4
  • Labarthe, Fabien, 2010, « Design et SHS dans le processus d’innovation centrée-usager : quels apports réciproques? » Échappées, 2, 14–25.
  • Perrotta, C., et Selwyn, N. (2020). Deep learning goes to school: toward a relational understanding of AI in education. Learning, Media and Technology, 45(3), 251–269. https://doi.org/10.1080/17439884.2020.1686017
  • Plenke, M. (2015). Google just misidentified 2 African-Americans in the most racist way possible. Mic. Consulté le 8 avril 2021 à : https://www.mic.com/articles/121555/google-photos-misidentifies-african-americans-as-gorillas
  • Selwyn, N. (2019). Should Robots Replace Teachers? AI and the Future of Education. Cambridge : Polity Press.
  • Selwyn, N., et Ga ević, D. (2020). The datafication of higher education: discussing the promises and problems. Teaching in Higher Education, 25(4), 527–540. https://doi.org/10.1080/13562517.2019.1689388
  • Williamson, B., et Eynon, R. (2020). Historical threads, missing links, and future directions in AI in education. Learning, Media and Technology, 45(3), 223–235. https://doi.org/10.1080/17439884.2020.1798995
  • Zawacki-Richter, O., Marín, V. I., Bond, M., et Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 1-27. https://doi.org/10.1186/s41239-019-0171-0

Pour citer cet article

©Auteurs(es). Cette œuvre, disponible à
http://dx.doi.org/10.18162/fp.2021.a230, est distribuée
sous licence Creative Commons Attribution 4.0 International http://creativecommons.org/licences/by/4.0/deed.fr

À propos de l'auteur

Collaboration spéciale
Collaboration spéciale
L'École branchée diffuse des textes provenant d'acteurs de la communauté éducative. Vous pouvez contribuer vous aussi! Profitez-en pour transmettre vos idées, parler d'un projet pédagogique vécu en classe, etc. Trouvez les détails dans le menu À propos / Soumettre un article.

Commentaires, reproduction de textes et usage de l'intelligence artificielle

Pour commenter un article et y ajouter vos idées, nous vous invitons à nous suivre sur les réseaux sociaux. Tous les articles y sont publiés et il est aussi possible de commenter directement sur Facebook, X, Instagram, Bluesky ou LinkedIn.

Sauf dans les cas où la licence est expressément indiquée, il n'est pas permis de reproduire les articles de l'École branchée. Toute demande de reproduction doit être adressée directement à l'organisme.

Dans son processus éditorial, notre équipe fait appel à des technologies intégrant l'intelligence artificielle pour améliorer les textes, entre autres par la reformulation de passages, la révision linguistique, la traduction et la synthèse des idées. Tous les textes sont révisés par des humains avant leur publication.

Recevez l'infolettre Hebdo

Recevez l'infolettre Hebdo mardi #Actu et vendredi #DevProf pour ne rien manquer des nouveautés de l'École branchée!


Faites briller vos projets pédagogiques et pratiques gagnantes!

Chaque histoire positive a le potentiel d'inspirer d'autres acteurs de l'éducation à innover pour améliorer la réussite éducative! L'École branchée vous offre ses pages pour faire circuler l'information dans le milieu scolaire, alimenter la veille professionnelle et valoriser les initiatives émanant du terrain. Allez-y, proposez-nous un texte! >

À lire aussi

Formation professionnelle : Utiliser l’IA générative au service des approches pédagogiques

Le Chantier IA en FP, un groupe de travail composé de membres des services nationaux et régionaux du RÉCIT en formation professionnelle, a développé une formation autoportante innovante. Celle-ci vise à guider les enseignants dans la compréhension de l’IA, la structuration de requêtes et l’intégration de cette technologie pour améliorer l’enseignement. Voici un aperçu de cette formation et de son potentiel pédagogique.

Balado Rencontres numériques – L’intelligence artificielle

Dans ce balado, Alexandra Coutlée discute avec Olivier Blais de Moov AI. Celui-ci est convaincu que « les humains et l'intelligence artificielle doivent apprendre à cohabiter. Des fois, ça va être l'humain qui va aider l’IA. D’autres fois, c’est l’IA qui va augmenter l’humain ».

Des idées d’usages de l’intelligence artificielle pour le personnel enseignant et pour les élèves

À l’occasion des 40 ans du Centre pour l’éducation aux médias et à l’information (CLEMI), la Mission laïque française (MLF) a lancé du 20 au 24 mars la 1re édition de son cycle de web-conférences sur l’éducation aux médias et à l’information. Évidemment, la semaine aurait été incomplète sans un atelier consacré au déjà célèbre ChatGPT.