Par Martine Rioux
Les 20 et 21 novembre, le Conseil des écoles catholiques du Centre-Est (CECCE) tenait, à Ottawa, la deuxième édition du Symposium sur l’intelligence artificielle en éducation, Élève Exposant IA. L’événement, organisé en collaboration avec Gartner, Raymond Chabot Grant Thornton et Zenapptic, a réuni plus de 350 enseignants, directions, conseillers pédagogiques et chercheurs autour d’un objectif commun : réfléchir au sujet de l’IA pour mieux la comprendre et l’intégrer de manière responsable dans le milieu scolaire. L’École branchée y a été invitée par le comité organisateur.
Une ouverture axée sur la sobriété numérique
La conférence d’ouverture, animée par le journaliste et animateur Mathieu Dugal, a donné le ton : l’IA transforme la société toute entière, mais son intégration doit se faire avec retenue. Selon lui, l’avenir passera par une forme de « sobriété numérique », où l’humain demeure au cœur de la décision et de l’action.
Tout au long du Symposium, cette idée est d’ailleurs revenue fréquemment : l’IA doit demeurer un outil que l’humain utilise pour effectuer certaines tâches. Elle « génère » plutôt qu’elle ne « crée », et son interprétation nécessite jugement professionnel, recul et esprit critique.
Gouvernance et paradoxes de l’IA en milieu scolaire
Le CECCE a présenté les fondements de son cadre de gouvernance entourant l’IA, un travail amorcé depuis plus d’un an pour assurer une intégration cohérence au sein du Conseil scolaire. L’objectif : soutenir un leadership fondé sur la transparence, l’équité et la confiance, tout en clarifiant les pratiques pour le personnel scolaire et les élèves.
L’équipe a exposé les défis organisationnels rencontrés, notamment ce qu’elle nomme les « paradoxes de l’IA » :
- Innovation vs prudence
- Autonomie vs supervision
- Rapidité vs rigueur
Effectivement, Jean-Marc Dupont, directeur du Service du soutien à l’apprentissage, et Christine Leduc, enseignante en affectation spéciale sur le projet, ont mis en garde les participants contre ces extrêmes. Selon eux, les réponses se trouvent probablement dans les zones grises entre les énoncés de chacun des paradoxes.
Surveillez notre fil d’actualité : un article présentera sous peu la démarche derrière la création du cadre de gouvernance.
Former avec confiance : l’initiative du CAVLFO
Le Consortium d’apprentissage virtuel de langue française de l’Ontario (CAVLFO) a présenté InitIAtives CAVLFO, une trousse d’accompagnement destinée au personnel enseignant souhaitant développer leurs compétences en matière d’IA.
L’outil propose un continuum d’intégration en cinq stades, assorti d’une autoévaluation permettant d’identifier ses forces et ses besoins. Sur le site, des activités sont proposées aux élèves et le personnel enseignant a accès à du matériel pédagogique entièrement personnalisable.
L’atelier, animé par Caroline Viau, directrice adjointe Innovation et amélioration continue, et Chantal Picard, conseillère pédagogique, a permis aux participants de découvrir des exemples concrets d’utilisation de l’IA pour personnaliser l’apprentissage, enrichir les contenus et soutenir le suivi des élèves, tout en insistant sur l’importance d’une utilisation éthique.
Si la démarche vous intéresse, sachez que la trousse a aussi été présentée avec l’École branchée en formule Découverte, et la rediffusion vidéo est offerte ici.
Des usages concrets en classe : l’exemple du Nouveau-Brunswick
De son côté, Josée Gaudet, mentore au District scolaire francophone Nord-Est du Nouveau-Brunswick, a partagé plusieurs projets menés dans les écoles de sa province. L’atelier présentait des activités simples, destinées aux trois cycles du primaire, permettant de découvrir l’IA, des pistes pour stimuler la créativité ou l’analyse critique, ainsi qu’un rappel des enjeux de protection des données. L’objectif était de montrer comment l’IA peut soutenir l’enseignement sans alourdir la tâche du personnel, lorsque son usage est bien balisé.
Comprendre la relation humain-machine
Parmi les conférences marquantes du second jour, celle de Mary Mesaglio, analyste principale chez Gartner, portait sur l’anthropomorphisme et les liens émotionnels que les utilisateurs développent envers les outils d’IA générative.
Selon elle, cette proximité peut fausser le jugement et réduire la vigilance. Encore une fois, l’importance de maintenir une distance émotionnelle avec les outils et de développer l’esprit critique ont été mis de l’avant. Elle a posé une question essentielle : jusqu’à quel point sommes-nous prêts à tolérer les erreurs d’une machine? La réponse ne sera probablement pas la même que la requête initiale porte sur des diagnostics médicaux ou sur la rédaction d’un simple texte. De là, la nécessité, selon elle, de demeure alerte face aux usages que l’ont fait des outils.
Clôture : redonner à l’enseignant son rôle de guide
En conférence de clôture, Mélissa Canseliet, neuroscientifique spécialisée en cyberpsychologie, a proposé un autre regard sur l’usage de l’IA. Elle s’est appuyée sur les neurosciences pour rappeler que les enseignants jouent un rôle crucial dans la structuration de la pensée, du jugement et de la motivation des jeunes.
Selon elle, l’IA doit être intégrée sans remplacer l’expertise humaine, en mettant l’accent sur l’autonomie intellectuelle, le plaisir d’apprendre et le développement du sens critique.

Photo : Martine Rioux
Vers un vocabulaire plus juste et une réflexion collective
Un fil conducteur a traversé l’événement : la nécessité de choisir soigneusement les mots lorsque l’on aborde le thème de l’intelligence artificielle. D’ailleurs, plusieurs intervenants ont rappelé que l’expression « intelligence artificielle » est elle-même chargée de biais et qu’elle génère des perceptions trompeuses.
Certains ont proposé d’utiliser des termes alternatifs, comme robot, machine, agent computationnel, afin de mieux refléter la réalité technologique. La question demeure ouverte : comment nommer ces outils pour encourager une compréhension juste, critique et responsable?
Le Symposium sur l’intelligence artificielle en éducation, Élève Exposant IA, du Conseil des écoles catholiques du Centre-Est (CECCE) sera de retour en 2026.
En complément : leçons de la conférence de clôture
Chargée de la conférence de clôture de la première journée, l’auteure de cet article, Martine Rioux, a relevé le défi de synthétiser les discussions et d’ouvrir de nouvelles pistes de réflexion. Son message clé : l’urgence de l’action et de la collaboration.
Face à la complexité et à la rapidité des avancées de l’IA, Matine a invité les participants à dépasser l’hésitation et la peur : « J’ai voulu lancer la discussion en invitant les participants à ouvrir les échanges dans leur milieu. C’est tous ensemble que nous pourrons trouver des façons de faire adaptées à nos réalités. Il faut plonger dans la piscine et s’y mettre. Ce n’est pas en restant sur le bord qu’on apprendra à nager! »
Elle a ainsi souligné l’importance, pour tous les intervenants en éducation, de s’impliquer activement et avec transparence dans l’expérimentation et l’intégration de l’IA au quotidien.
Martine a aussi participé au panel de clôture, animé par Katerine-Lune Rollet, et regroupant aussi Martine Pellerin (Université de l’Alberta) et Jean-Marc Dupont (CECCE). Le trio a poussé la réflexion au-delà des outils pour se concentrer sur les fondations de l’éducation à l’ère de l’IA.
Trois conclusions majeures se sont dégagées de cet échange :
- Nécessité d’un changement de posture et de transparence : Les milieux éducatifs doivent adopter une culture où l’on reconnaît être en apprentissage collectif. La transparence est indispensable pour bâtir la confiance et évoluer ensemble face aux technologies.
- Adopter une mentalité de croissance : Il est impératif de cesser de parler de rattrapage, une notion qui maintient le sentiment d’être en retard. Il faut plutôt se projeter vers l’avant avec une mentalité de croissance et d’apprentissage tout au long de la vie.
- Priorité aux compétences humaines : Le développement des compétences relationnelles, sociales et émotionnelles doit être une priorité absolue. L’humain, par sa créativité, son jugement et son empathie, possède une valeur inestimable, et l’éducation doit s’assurer de permettre à chacun de développer son plein potentiel, en utilisant l’IA comme catalyseur et non comme substitut.






