Par Johanathan Woodworth, professeur adjoint en éducation, Mount Saint Vincent University
L’intelligence artificielle (IA) transforme la manière dont les élèves rédigent leurs textes, apprennent des langues et réalisent leurs travaux. Le personnel enseignant explore aussi l’utilisation de l’IA pour la planification des cours, l’évaluation et la rétroaction. Le rythme de cette évolution est si rapide que les écoles, les universités et les décideurs publics peinent à suivre.
Dans ce contexte, une question essentielle est souvent laissée de côté : comment les élèves et le personnel enseignant apprennent-ils à utiliser l’intelligence artificielle?
Pour l’instant, la plupart des apprentissages se font de manière informelle. Les élèves partagent des astuces sur TikTok ou Discord ou demandent directement à ChatGPT comment s’y prendre. De leur côté, le personnel enseignant partage des astuces en salle des profs ou puise des idées dans des discussions sur LinkedIn.
Ces réseaux permettent une diffusion rapide des connaissances, mais de manière inégale. Ils favorisent rarement une réflexion approfondie sur des enjeux essentiels comme les biais, la surveillance ou l’équité. C’est là que la formation initiale et le développement professionnel peuvent jouer un rôle déterminant.
Au-delà de la curiosité
Les recherches montrent que le personnel enseignant se sent souvent insuffisamment préparé à utiliser l’intelligence artificielle. Une étude récente révèle que plusieurs ne possèdent pas les compétences nécessaires pour évaluer la fiabilité des outils d’IA et en comprendre les enjeux éthiques. Les activités de développement professionnel se concentrent encore trop souvent sur les aspects techniques, sans aborder les répercussions plus larges. Pourtant, une utilisation non critique de l’IA risque d’accentuer les biais et les inégalités.
Pour répondre à ce besoin, un module pilote a été mis sur pied dans un cours de deuxième cycle à la Mount Saint Vincent University. Les étudiantes et étudiants en formation à l’enseignement ont participé à :
- une exploration pratique des possibilités offertes par l’IA en matière de rétroaction et de détection du plagiat;
- la conception collaborative d’évaluations intégrant des outils d’IA;
- l’analyse de cas présentant des dilemmes éthiques dans des classes multilingues.
L’objectif n’était pas seulement d’apprendre à utiliser l’IA, mais de passer d’une exploration non encadrée à un engagement critique et réfléchi.
Développer la pensée critique des futures enseignantes et des futurs enseignants
Au fil des séances, des tendances claires se sont dessinées. Les étudiantes et les étudiants en enseignement manifestaient dès le départ un vif intérêt pour l’IA, un enthousiasme qui s’est maintenu tout au long du module. Elles et ils ont signalé une amélioration de leur capacité à évaluer les outils, à reconnaître les biais et à utiliser l’IA de façon plus intentionnelle.
Leur vocabulaire autour de l’IA a aussi évolué : d’abord incertaines quant à la manière de s’y prendre, les étudiants et étudiantes ont terminé le module en employant avec aisance des notions comme « biais algorithmique » et « consentement éclairé ».
La littératie en matière d’IA a progressivement été perçue comme un volet du jugement professionnel, en lien avec la pédagogie, la sensibilité culturelle et l’identité enseignante. Elle n’était plus seulement associée à la compréhension technique des algorithmes, mais aussi à la capacité de prendre des décisions éthiques et pédagogiques éclairées.
Ce projet pilote montre que l’enthousiasme ne manque pas : une formation structurée permet aux étudiantes et étudiants d’acquérir les outils et le vocabulaire nécessaires pour aborder l’IA avec esprit critique.
Des approches inégales dans les établissements
Ces constats rejoignent les défis institutionnels observés ailleurs. Les universités à travers le monde adoptent des politiques différentes : certaines interdisent l’IA, d’autres l’encadrent avec prudence, tandis que plusieurs restent vagues. Cette incohérence entraîne confusion et méfiance.
En collaboration avec la professeure Emily Ballantyne, une réflexion a été menée sur l’adaptation de cadres stratégiques en IA pour l’enseignement supérieur canadien. Le corps professoral reconnaît le potentiel de l’IA, tout en exprimant des préoccupations liées à l’équité, à l’intégrité académique et à la charge de travail.
Un modèle a été proposé pour intégrer une dimension « relationnelle » et « affective », soulignant que l’IA agit non seulement sur l’efficacité, mais aussi sur la confiance et les dynamiques pédagogiques. Concrètement, cela signifie que l’IA transforme non seulement la manière dont les travaux sont réalisés, mais aussi les relations entre les étudiantes, les étudiants et le personnel enseignant, en classe comme au-delà.
Autrement dit, l’intégration de l’IA reconfigure les relations éducatives et amène le personnel enseignant à redéfinir son rôle professionnel. En l’absence de politiques claires, le personnel enseignant se retrouve souvent à devoir trancher seul des questions éthiques, sans soutien institutionnel.
Intégrer la littératie en matière d’IA
Des politiques claires ne suffisent pas. Pour que l’IA appuie réellement l’enseignement et l’apprentissage, les établissements doivent aussi investir dans le développement des connaissances et des pratiques qui encouragent un usage critique et réfléchi. Les politiques donnent une orientation, mais leur portée dépend de la façon dont elles influencent les pratiques quotidiennes en classe.
- La formation à l’enseignement doit jouer un rôle moteur dans le développement de la littératie en matière d’IA. Si l’IA redéfinit la lecture, l’écriture et l’évaluation, elle ne peut être abordée comme un atelier facultatif. Cette littératie doit être intégrée directement dans les programmes d’études et les compétences à développer.
- Les politiques institutionnelles doivent aussi être explicites et concrètes. Les personnes en formation demandent souvent : « Quelles sont les attentes de l’université? » Les établissements devraient distinguer les usages abusifs (comme la rédaction fantôme) des usages légitimes (comme l’appui à la rétroaction), comme le recommande une recherche récente.
- Les communautés d’apprentissage jouent également un rôle clé. Les connaissances liées à l’IA évoluent constamment au rythme des outils et des pratiques. Des communautés de pratique, des répertoires de ressources et des pôles interdisciplinaires peuvent soutenir le partage de stratégies et la discussion des enjeux éthiques.
- L’équité doit demeurer au cœur de toute démarche. Les outils d’IA reproduisent souvent les biais de leurs données d’entraînement, désavantageant notamment les apprenantes et apprenants multilingues. Les établissements devraient réaliser des audits d’équité et aligner l’adoption de l’IA sur les normes d’accessibilité et d’inclusion.
Soutenir les élèves et le personnel enseignant
Le débat public sur l’IA en éducation oscille fréquemment entre l’enthousiasme pour l’innovation et la crainte du plagiat. Ces visions réductrices ne reflètent pas la complexité de la réalité vécue dans les classes.
Les réseaux d’apprentissage informels sont utiles, mais incomplets : ils diffusent des conseils pratiques, sans toujours favoriser la réflexion éthique. La formation initiale et le développement professionnel peuvent combler ces lacunes, en favorisant une appropriation critique et équitable de l’IA.
Lorsqu’il bénéficie d’occasions encadrées pour explorer l’IA, le personnel enseignant passe du rôle d’utilisateur passif à celui d’acteur et d’actrice capables d’influencer le développement et l’usage de la technologie. Cette évolution est essentielle pour que les personnes enseignantes participent activement à définir comment l’IA peut soutenir la pédagogie, l’équité et la réussite des élèves.
C’est cette capacité d’agir qu’il faut cultiver afin que l’IA serve véritablement l’apprentissage et l’enseignement, plutôt que de les fragiliser.
Cet article est traduit de The Conversation sous licence Creative Commons. Lisez l’article original. Il a été traduit en français avec la permission de l’auteur.