ANNONCE

L’intelligence artificielle en éducation : enjeux de justice

Dans ce texte, Simon Collin et Emmanuelle Marceau aborde l'intégration de l'IA en éducation. Selon eux, il devient nécessaire d'accompagner le personnel enseignant dans une prise en compte proactive des enjeux éthiques et critiques que l'IA soulève.

Publié le :

Classé dans :
ANNONCE

Par Simon Collin, Université du Québec à Montréal (Canada) et Emmanuelle Marceau, Cégep du Vieux Montréal-CRDP (Canada)

Introduction : potentiel del’intelligence artificielle pour l’éducation

L’intelligence artificielle (IA) suscite un intérêt pédagogique et scientifique croissant depuis une trentaine d’années, qui s’est accéléré récemment à la suite de l’amélioration de la performance technique de l’IA (Becker, 2018).

Dans leur revue systématique de la littérature, Zawacki-Richter et al. (2019) identifient quatre applications principales de l’IA en enseignement supérieur :

1/le profilage et la prédiction (p. ex., admission à un programme d’études, décrochage scolaire);

2/les systèmes de tutorat intelligent (p. ex., enseignement de contenus pédagogiques, rétroactions);

3/la mesure et l’évaluation (p. ex., notation automatique, engagement scolaire);

4/et les systèmes adaptatifs et personnalisés (p. ex., recommandation et sélection de contenus personnalisés).

En revanche, les enjeux éthiques et critiques que soulève l’IA sont peu étudiés en enseignement supérieur (Zawacki-Richter et al., 2019), et en éducation plus largement (Krutka, 2021). Souhaitant contribuer à cette réflexion émergente, nous proposons d’aborder quelques enjeux éthiques et critiques de l’IA, sans toutefois prétendre à l’exhaustivité, ainsi que de formuler quelques pistes d’action permettant de mieux les prendre en compte, tant du point de vue de la conception que de l’usage.

Ce faisant, il importe de garder en tête que les enjeux énumérés ci-dessous ne sont pas, pour la plupart, spécifiques à l’IA dans la mesure où ils se posent aussi pour d’autres technologies. Qui plus est, on les retrouve dans d’autres sphères de la société où l’IA est utilisée. Ces enjeux tendent toutefois à être amplifiés par les développements actuels de l’IA et à se décliner de manière singulière en éducation, ce qui justifie à notre sens la pertinence d’une réflexion circonscrite à l’IA en éducation.

Quelques enjeux éthiques et critiques de l’IA en éducation

Les enjeux éthiques et critiques que soulève l’IA en éducation sont multiples et ont des origines diverses. Un premier type d’enjeux est lié aux données massives que nécessite l’IA, lesquelles peuvent induire des biais éventuels et posent la question du respect de la vie privée des élèves et du personnel scolaire (Andrejevic et al., 2020 ; Perrotta et al., 2020). Krutka (2021) prend l’exemple de la suite éducative de Google, qui collecte des données sans consentement libre et éclairé des élèves et du personnel scolaire (en contradiction avec leurs propres politiques et celles des provinces et des états) et les exploite de manière opaque. Les données des élèves et du personnel scolaire sont donc utilisées à leur insu, causant ainsi un manquement au respect de leur vie privée.

Par ailleurs, l’IA est principalement produite par des entreprises privées plutôt que par des instances scolaires (Williamson et al., 2020 ; Selwyn et al., 2020), et principalement étudiée par des chercheur.e.s en informatique ou en sciences, technologies, ingénierie et mathématiques plutôt que par des chercheur.e.s en sciences de l’éducation (Zawacki-Richter et al., 2019). Cette situation génère un deuxième type d’enjeux éthiques et critiques relatif aux expertises et aux représentations éducatives mobilisées par les équipes de conception.

En dehors de l’éducation, plusieurs études ont déjà souligné le manque de diversité au sein des équipes de conception, ce qui se traduit par des biais de représentativité allant de la sous-représentation de certains groupes sociaux à leur discrimination, stigmatisation ou exclusion. C’est ainsi qu’en 2015, l’algorithme de Google photos a associé une photo de deux personnes noires américaines au tag « gorilles », faute d’avoir été suffisamment entraîné à identifier des visages à la peau foncée (Plenke, 2015).

Finalement, l’automatisation croissante de l’IA implique que cette dernière est en mesure de prendre en charge une part croissante des actions pédagogiques qui reviennent habituellement aux élèves et au personnel scolaire (Selwyn, 2019). Se pose alors un autre type d’enjeux éthiques et critiques relatifs à l’autonomie et au jugement professionnels des enseignantes et enseignants, ainsi qu’à l’agentivité des élèves en fonction de la distribution des tâches entre eux et l’IA.

À titre d’exemple, citons le cas des systèmes de gestion des comportements rapporté par Livingtsone et Sefton-Green (2016). Les systèmes de gestion des comportements permettent aux enseignant.e.s de documenter les comportements nuisibles des élèves, qui sont ensuite compilés et signalés automatiquement à l’administration scolaire en vue d’appliquer des conséquences proportionnelles.

Faute de temps en salle de classe, certain.e.s enseignant.e.s documentent les comportements après les cours, parfois sans en avoir informé les élèves concerné.e.s. Les élèves peuvent donc être mis.es en retrait pour une suite de comportements nuisibles dont elles ou ils n’ont pas souvenir, ce qui met à mal les principes mêmes de cohérence et de justice, en éducation.

Prévenir les enjeux éthiques et critiques de l’IA : de la conception à l’usage

De ces types d’enjeux éthiques et critiques, il est possible d’esquisser quelques pistes de réflexion et d’action. En premier lieu, ces enjeux gagnent à être pris en compte dès la phase de conception, afin de prévenir autant que possible des retombées négatives éventuelles lors de l’usage. On peut alors se poser la question suivante : dans quelle mesure les équipes de conception intègrent-elles des expertises et des représentations éducatives lorsqu’elles développent des technologies impliquant l’IA? Et dans quelle mesure ces expertises et représentations éducatives sont-elles représentatives de la diversité et de la singularité des milieux scolaires québécois?

Un premier pas pour s’en assurer consiste, pour les équipes de conception, à opter pour des modèles « centrés usager» (p. ex., Labarthe, 210) dans le but de maximiser la prise en compte des expertises et des représentations éducatives et de préserver la finalité éducative des finalités économiques et techniques. Un pas complémentaire consiste à adopter et respecter des principes éthiques de conception, comme le fait d’informer systématiquement et explicitement les usager.e.s lorsqu’elles ou ils sont en interaction avec un système d’intelligence artificielle.

Sur le plan de l’usage, sensibiliser les élèves et le personnel scolaire aux enjeux de l’IA en éducation implique d’intégrer une dimension éthique et critique explicite à la formation aux technologies. Pour être complète, cette dimension gagnerait à ne pas se limiter aux « bons usages » de l’IA, mais à s’articuler autour de la compréhension des interactions entre la conception et l’usage de l’IA d’une part, et entre les usages et leurs implications éducatives et sociales d’autre part.

Par exemple, le modèle technoéthique de Krutka et al. (2019) ouvre une voie intéressante en formation initiale et continue des enseignants : pour déterminer si une technologie donnée est éthique, il propose une analyse des dimensions éthique, légale, démocratique, économique, technologique et pédagogique, guidée par des questions, ainsi que des éléments à considérer et des applications pratiques à intégrer à la formation des enseignants.

Pour ne pas conclure

L’intégration de l’IA en éducation est relativement récente de sorte que l’opérationnalisation de son potentiel reste en grande partie à venir. Pour l’orienter, il nous semble nécessaire de l’accompagner d’une prise en compte proactive des enjeux éthiques et critiques que l’IA soulève, en ancrant cette dernière dans le cadre d’une réflexion sur la justice. À ce titre, une formation à l’éthique du personnel scolaire mérite d’être mise de l’avant afin de l’outiller au mieux pour intervenir et interagir dans un monde en pleine mouvance.

Bibliographie

  • Andrejevic, M., et Selwyn, N. (2020). Facial recognition technology in schools: critical questions and concerns. Learning,Media and Technology, 45(2), 115–128. https://doi.org/10.1080/17439884.2020.1686014
  • Becker, Brett. (2018). Artificial Intelligence in Education: What is it, Where is it Now, Where is it Going? In B. Mooney. Ireland’s Yearbook of Education (pp. 42-46). Dublin : Education Matters.
  • Krutka, D. G., Heath, M. K., et Staudt Willet, K. B. (2019). Foregrounding technoethics: Toward critical perspectives in technology and teacher education. Journal of Technology and Teacher Education, 27(4), 555–574
  • Krutka, D.G., Smits, R.M. et Willhelm, T.A. (2021) Don’t Be Evil : Should We Use Google in Schools?. TechTrends. https://doi.org/10.1007/s11528-021-00599-4
  • Labarthe, Fabien, 2010, « Design et SHS dans le processus d’innovation centrée-usager : quels apports réciproques? » Échappées, 2, 14–25.
  • Perrotta, C., et Selwyn, N. (2020). Deep learning goes to school: toward a relational understanding of AI in education. Learning, Media and Technology, 45(3), 251–269. https://doi.org/10.1080/17439884.2020.1686017
  • Plenke, M. (2015). Google just misidentified 2 African-Americans in the most racist way possible. Mic. Consulté le 8 avril 2021 à : https://www.mic.com/articles/121555/google-photos-misidentifies-african-americans-as-gorillas
  • Selwyn, N. (2019). Should Robots Replace Teachers? AI and the Future of Education. Cambridge : Polity Press.
  • Selwyn, N., et Ga ević, D. (2020). The datafication of higher education: discussing the promises and problems. Teaching in Higher Education, 25(4), 527–540. https://doi.org/10.1080/13562517.2019.1689388
  • Williamson, B., et Eynon, R. (2020). Historical threads, missing links, and future directions in AI in education. Learning, Media and Technology, 45(3), 223–235. https://doi.org/10.1080/17439884.2020.1798995
  • Zawacki-Richter, O., Marín, V. I., Bond, M., et Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 1-27. https://doi.org/10.1186/s41239-019-0171-0

Pour citer cet article

©Auteurs(es). Cette œuvre, disponible à
http://dx.doi.org/10.18162/fp.2021.a230, est distribuée
sous licence Creative Commons Attribution 4.0 International http://creativecommons.org/licences/by/4.0/deed.fr

À propos de l'auteur

Collaboration spéciale
Collaboration spéciale
L'École branchée diffuse des textes provenant d'acteurs de la communauté éducative. Vous pouvez contribuer vous aussi! Profitez-en pour transmettre vos idées, parler d'un projet pédagogique vécu en classe, etc. Trouvez les détails dans le menu À propos / Soumettre un article.

Recevez l'infolettre Hebdo

Recevez l'Info #DevProf et l'Hebdo pour ne rien manquer des nouveautés de l'École branchée!


Vos commentaires

Pour commenter un article et y ajouter vos idées, nous vous invitons à nous suivre sur les réseaux sociaux. Tous les articles y sont publiés et il est aussi possible de commenter directement sur Facebook, Twitter, Instagram ou LinkedIn.

Reproduction de textes

Toute demande de reproduction des articles de l'École branchée doit être adressée à l'organisme de gestion des droits Copibec.

Faites briller vos projets d'école et pratiques gagnantes!

L'École branchée fait circuler l'information dans le milieu scolaire afin d'alimenter la veille professionnelle et valoriser les initiatives émanant du terrain. Allez-y, proposez-nous un texte! >

À lire aussi

Balado Rencontres numériques – L’intelligence artificielle

Dans ce balado, Alexandra Coutlée discute avec Olivier Blais de Moov AI. Celui-ci est convaincu que « les humains et l'intelligence artificielle doivent apprendre à cohabiter. Des fois, ça va être l'humain qui va aider l’IA. D’autres fois, c’est l’IA qui va augmenter l’humain ».

Des idées d’usages de l’intelligence artificielle pour le personnel enseignant et pour les élèves

À l’occasion des 40 ans du Centre pour l’éducation aux médias et à l’information (CLEMI), la Mission laïque française (MLF) a lancé du 20 au 24 mars la 1re édition de son cycle de web-conférences sur l’éducation aux médias et à l’information. Évidemment, la semaine aurait été incomplète sans un atelier consacré au déjà célèbre ChatGPT.

L’art du « Prompt » : Guide 101 pour les personnes enseignantes

L'une des clés du succès dans l'utilisation de l'intelligence artificielle (IA) générative, telle que ChatGPT, repose dans la capacité à lui formuler des instructions claires pour optimiser les réponses. Ce texte présente 5 étapes pour converser efficacement avec l'IA.