ANNONCE
ANNONCE

Évaluer à l’ère de l’IA : une occasion de mieux mesurer les compétences

Les membres abonnés ont accès à encore plus de contenu exclusif comme celui-ci!

Si vous n'êtes pas encore abonné(e) à la revue, cliquez ici pour le faire!

Temps de lecture estimé : 13 minutes
PARTAGER VIA :
L’intelligence artificielle générative (IAg) bouscule l’évaluation : copies « parfaites », devoirs rédigés en quelques secondes, difficulté à savoir qui a fait quoi. Mais sur le terrain, une autre lecture s’impose : et si l’IA devenait surtout une chance de clarifier nos attentes, de diversifier les preuves d’apprentissage et de renforcer le jugement professionnel? Une communauté de pratique Canada–Belgique s’est penchée sur ces questions et propose repères, outils et pistes d’action concrètes dans son document synthèse téléchargeable. 

Table des matières

À l’automne 2025, la communauté de pratique Branchée sur l’IA! (Canada) s’est associée à la COP, une communauté de pratique en Belgique, pour travailler sur une thématique jugée prioritaire par les participantes et participants : l’évaluation des apprentissages à l’ère de l’IA. L’objectif n’était pas de produire une position « pour ou contre », mais plutôt un livrable utile, ancré dans les réalités de classe et d’établissement.

Le constat de départ est simple : l’évaluation était déjà un sujet sensible avant l’arrivée de l’IA générative, mais elle force maintenant les équipes-écoles à revisiter des questions qui touchent autant la pédagogie que l’éthique, le cadre légal, la transparence et la cohérence institutionnelle.

Le livrable final se décline sous forme d’un dossier interactif, dont voici les grandes lignes!

Interdire, contourner, intégrer : trois postures qu’on voit apparaître

Lors du webinaire d’experts qui a lancé les échanges à l’automne 2025, trois approches ont été mises en lumière.

1) L’évitement : revenir à des évaluations sans IA

C’est l’approche « on ferme la porte ». On privilégie des modalités où l’IA ne peut (ou ne devrait pas) intervenir : examens en présentiel, sans ordinateur, parfois très surveillés. Le bénéfice est évident pour certaines évaluations certificatives : on réduit le risque de triche. Mais cette posture a aussi des limites : elle peut mener à une réduction des tâches évaluées (moins de rédaction, moins de projets), et elle prépare mal les élèves à un monde où l’IA est déjà partout.

2) Le contournement : inventer des évaluations « anti-IA »

Ici, on tente de concevoir des tâches trop contextualisées ou trop complexes pour l’IA. Le document cite des stratégies comme : contextualiser les questions (les ancrer dans l’actualité, le vécu de l’élève), résoudre des problèmes complexes et surtout multiplier les formats (balado, vidéo, portfolio, oral) pour rendre la production plus authentique.

Cette posture pousse souvent à de meilleures tâches… mais elle peut aussi devenir une course : on « durcit » l’évaluation pour déjouer la machine, au risque d’augmenter la charge cognitive ou de rendre la tâche moins accessible aux apprenants.

3) L’intégration : faire de l’IA un outil d’apprentissage (et donc, un objet d’évaluation)

C’est la posture la plus transformatrice : on ne se demande plus seulement comment empêcher l’IA, mais comment développer un usage critique et responsable. Exemples proposés : demander aux élèves de critiquer la réponse de l’IA, de corriger une production générée, ou d’expliquer les étapes d’une résolution après l’avoir utilisée.

En filigrane, un message fort ressort aussi des « réflexions marquantes » : mieux vaut se concentrer sur la compétence réelle démontrée dans un contexte validé que sur l’origine de l’auteur (humain ou IA).

Intégrité et transparence : le vrai tournant n’est pas technologique

Le groupe 1 de la communauté de pratique Branchée sur l’IA! s’est penché sur l’intégrité, la transparence et les balises. L’idée centrale : l’IA n’impose pas seulement de nouvelles règles, elle impose une posture réflexive.


« À éviter » et « À faire » :

  • À éviter : cacher l’usage de l’IA, déléguer toute correction à l’IA, croire qu’elle est neutre ou infaillible, rester isolé dans sa pratique.
  • À faire : signaler son utilisation, utiliser l’IA comme complément d’évaluation, relire ses grilles et les productions de l’IA, s’informer selon les juridictions, établir des règles d’équipe et d’établissement.

Ce passage est important, parce qu’il réoriente le débat : on n’est pas dans « trouver l’outil miracle », mais dans « construire un cadre commun ». Et cela mène à une proposition très concrète : réaliser une charte d’établissement.

La charte : un outil de cohérence

Le dossier propose une démarche en cinq étapes ainsi que des exemples :

  1. Identifier les usages de l’IA (qui utilise quoi, comment, dans quels cas)
  2. Définir opportunités et risques (y compris la légalité)
  3. Co-construire avec les intervenants (élèves, parents, personnel)
  4. Prévoir des exceptions et des aménagements
  5. Communiquer et former

On comprend l’intérêt : la charte évite que chaque enseignant(e) soit seul(e) à « inventer » sa règle, et elle clarifie aux élèves ce qui est attendu, permis, interdit — selon les tâches. Le dossier évoque même l’idée de pictogrammes pour signifier clairement si l’IA est autorisée ou non dans une évaluation.

Enfin, le groupe 1 propose un prototype d’histoire interactive pour établir son profil d’utilisateur, en lien avec son expertise et son score de prudence face à l’IA. 

« Bien parler à l’IA » : quand l’art de la requête (prompting) devient une compétence professionnelle

Le groupe 2 de la CoP aborde un point souvent sous-estimé : si l’on utilise l’IA pour concevoir, adapter ou différencier des évaluations, la qualité de la requête (prompt) change tout.


Le document propose une grille « à éviter » / « à faire » très pratico-pratique.

  • À éviter : requête floue, objectif non précisé, niveau absent, besoins spécifiques ignorés, format non demandé, aucun feedback, aucun rôle attribué à l’IA.
  • À faire : indiquer niveau et discipline, préciser les adaptations inclusives, expliciter le format attendu, demander un feedback immédiat, donner un rôle à l’IA.

Le livrable présente ensuite des techniques testées en communauté de pratique avec des exemples :

  • Zero-shot (sans exemple)
  • One-shot (avec un exemple)
  • Few-shot (avec plusieurs exemples)
  • Role prompting (assigner un rôle)
  • Reverse prompting (demander à l’IA de poser d’abord des questions)
  • Chain of thoughts (raisonnement pas à pas)

À noter : les participants observent aussi que les versions payantes des outils d’IAg comprennent mieux les nuances, et que, si l’on reste sur une version gratuite, la stratégie est souvent d’avancer par étapes, en validant chaque réponse.

Des outils, oui… mais surtout des scénarios d’usage réalistes

Le groupe 3 de la CoP s’attaque à une question que beaucoup d’équipes-écoles se posent : quels outils, et pour quoi faire? L’approche est intéressante, parce qu’elle commence par des balises : respect de l’âge minimum, prudence sur les données personnelles, et importance d’une éducation à l’IA qui commence par l’éthique.

Le document mentionne explicitement, selon les contextes, des cadres comme la Loi 25 (Québec) et le RGPD (Règlement général sur la protection des données, en Europe), rappelant que les données des élèves exigent une vigilance élevée.

La « rampe de lancement » : du passif vers l’actif

Pour intégrer progressivement l’IA en contexte scolaire, une séquence de mise en route est proposée :

  1. Démonstration par l’enseignant (montrer les limites, générer volontairement une erreur)
  2. Copilotage en groupe (critiquer une réponse IA ensemble)
  3. Exploration encadrée (requêtes fournies)
  4. Autonomie (l’élève formule ses requêtes)

Cette gradation rejoint une préoccupation forte : on veut éviter l’outil « lâché dans la nature », et on veut soutenir l’agentivité des élèves sans les laisser seuls face aux dérives.

Trois piliers pédagogiques

Le livrable synthétise ensuite le potentiel de l’IA en évaluation autour de trois axes :

  • Évaluation diagnostique : sonder les acquis pour planifier sur mesure
  • Analyse d’erreurs avancée : comprendre le processus cognitif fautif
  • Tuteur intelligent : évaluation adaptative qui ajuste la difficulté

Et côté pilotage, on évoque aussi des usages administratifs : centralisation des données, tableaux de bord, détection précoce d’élèves à risque, tout en rappelant un principe clé : l’IA peut fournir des preuves, mais l’enseignant reste le décideur final.

Rétroaction et autoévaluation : un terrain où l’IA peut vraiment aider

Enfin, le groupe 4 se penche sur l’évaluation formative, notamment la rétroaction. Le dossier rappelle d’abord une définition structurée : la rétroaction, c’est une information sur un résultat ou une expérience d’apprentissage, qui vise à aider l’élève à identifier ce qu’il peut améliorer.

Il insiste aussi sur un rappel essentiels des mythes et réalités de l’évaluation à l’aide de l’IA.

  • Non, l’IA ne produit pas des rétroactions parfaites : une vérification humaine est nécessaire.
  • Non, l’IA ne « comprend » pas l’émotion : elle n’a pas accès aux signaux non verbaux.
  • Non, elle ne remplace pas l’enseignant : elle sert de support, notamment au démarrage.

Concrètement, le document propose des idées d’activités : produire plusieurs grilles de rétroaction selon les niveaux, soutenir la révision autonome par des flashcards avec statistiques, ou encore proposer des interactions personnalisables via des agents conversationnels (chatbots) multilingues, entre autres.

Ce que l’IA oblige à clarifier : les critères, les traces, la triangulation

En filigrane de plusieurs sections, on retrouve une idée qui fait consensus : l’IA pousse à rendre l’évaluation plus robuste, notamment par la diversification des preuves d’apprentissage. Le dossier parle explicitement de différencier une évaluation existante en variant les « traces d’apprentissage » et mentionne la triangulation.

Sans entrer dans un jargon local, l’idée est simple : croiser plusieurs types d’indices (production, démarche, oral, observations, métacognition) rend l’évaluation plus équitable… et beaucoup plus difficile à « truquer » uniquement avec un texte généré.

Une conclusion qui déplace le regard

Au final, le message le plus fort qui émane des réflexions de cette communauté de pratique n’est peut-être pas une règle, ni un outil. C’est ce basculement proposé : évaluer la compétence réelle dans un contexte validé, plutôt que mener une chasse à l’IA.

Autrement dit : l’IA force à revenir aux bases de l’évaluation — intentions claires, critères explicites, tâches signifiantes, rétroaction utile — et à renforcer ce qui fait la solidité du métier : le jugement professionnel, la cohérence des équipes, et une pédagogie qui assume le monde tel qu’il est.

Au Québec, le cycle 1 de la CoP Branchée sur l’IA! a notamment été rendu possible grâce au soutien du ministère de l’Économie, de l’Innovation et de l’Énergie via le programme NovaScience, ainsi que d’autres précieux partenaires comme le CADRE21 et l’École en réseau, avec le précieux soutien de l’eduLab.


7 repères concrets pour des évaluations justes, authentiques… et réalistes

1) Commencer par une question simple : qu’est-ce qu’on veut observer?

L’IA bouscule surtout quand l’évaluation repose sur une production unique et qu’on confond « réponse propre » et « compétence ». L’enjeu devient alors de se concentrer sur la compétence réelle démontrée dans un contexte validé, plutôt que de mener une chasse à « l’auteur » (humain ou IA).

2) Interdire, contourner, intégrer : trois postures… et un choix d’équipe

Trois approches qu’on voit déjà en milieu scolaire :

  • Évitement : privilégier des évaluations sans IA (souvent en présentiel, sans ordinateur).
  • Contournement : créer des évaluations « anti-IA » (très contextualisées, complexes, ancrées dans le réel).
  • Intégration : faire de l’IA un outil d’apprentissage et un objet d’esprit critique (ex. : critiquer une réponse générée, corriger, améliorer).

Il n’y a pas une seule « bonne » posture… mais il y a un besoin de cohérence : ce qui est permis dans un cours, interdit dans l’autre ou toléré crée de l’injustice et de la confusion.

3) Miser sur la transparence (plutôt que sur la détection)

Les détecteurs d’IA sont peu fiables et ne constituent pas une solution. La voie proposée : des balises explicites, partagées, compréhensibles par les élèves… et défendables en équipe.

  • À éviter : cacher l’usage, déléguer toute correction, croire l’IA infaillible/neutre, utiliser sans relecture.
  • À faire : signaler l’usage, utiliser l’IA comme complément, relire et valider, s’informer légalement, établir des règles communes.

Astuce terrain relevée : utiliser des pictogrammes (ou logos) pour indiquer si l’IA est permise et à quel niveau dans une tâche.

4) La charte IA : une « assurance cohérence » pour l’établissement

Plutôt que des règles implicites qui varient d’une classe à l’autre, on propose une démarche en cinq étapes pour une charte d’utilisation de l’IA.

  1. Identifier les usages (qui utilise quoi, comment, dans quels cas)
  2. Définir opportunités et risques (dont la légalité)
  3. Co-construire avec les intervenants (élèves, parents, personnel)
  4. Prévoir exceptions et aménagements (incluant l’inclusion)
  5. Communiquer et former (sinon la charte reste une affiche)

Pour un lectorat international, le rappel est important : la prudence sur les données est incontournable, avec des cadres comme la Loi 25 (Québec) et le RGPD (Règlement général sur la protection des données, Europe).

5) Mieux « parler à l’IA » : le prompting devient une compétence professionnelle

Si l’IA sert à adapter une évaluation, différencier, générer une grille, tout se joue dans la qualité de la requête. Comment passer d’une demande floue à un prompt structuré? 

À inclure systématiquement :

  • Niveau, discipline, programme de référence
  • Objectif et critères
  • Format attendu (QCM, tâche complexe, oral, grille critériée…)
  • Adaptations (inclusion, besoins spécifiques)
  • Rôle donné à l’IA (conseiller pédagogique, tuteur socratique, correcteur selon une grille…)

Il existe plusieurs techniques : zero-shot, one-shot, few-shot, role prompting, reverse prompting (l’IA pose d’abord des questions), chain of thoughts (raisonnement pas à pas).

6) Diversifier les preuves : la meilleure « anti-triche » reste… une bonne évaluation

Varier les formats de production (balado, vidéo, portfolio, présentation orale, etc.) réduit la tentation du « copier-coller » et permet d’évaluer des compétences plus larges (communication, argumentation, démarche, métacognition).

En clair : croiser plusieurs indices (produit final + démarche + explication orale/écrite + observations) rend l’évaluation plus robuste… sans transformer l’enseignant en enquêteur.

7) Rétroaction et autoévaluation : là où l’IA peut faire gagner du temps

Une rétroaction efficace est une information utile pour permettre à l’élève d’identifier ce qu’il peut améliorer. Il faut toutefois se méfier des mythes : l’IA n’est pas parfaite, ne comprend pas l’émotion, ne remplace pas l’enseignant.

En revanche, l’IA peut aider à :

  • proposer des commentaires différenciés à partir d’une grille
  • soutenir la révision autonome (flashcards, statistiques de progression) 
  • favoriser l’individualisation, par exemple via des interactions encadrées

À propos de l'auteur(e)
PROPAGER VIA :
À lire aussi
🔒 Les écrans : pistes concrètes pour stimuler les usages pédagogiques et établir un partenariat école-famille

Les écrans sont omniprésents dans la vie des jeunes comme des adultes. Entre préoccupations liées à la santé, directives d’interdiction et nécessité de préparer les élèves au monde numérique, les écoles – et les familles – sont confrontées à un défi de taille : trouver l’équilibre. Ce dossier propose des repères scientifiques, des recommandations et des pistes concrètes pour faire du numérique un levier pédagogique et éducatif, en misant sur la cohérence école-famille et sur le développement de la compétence numérique.

Ce contenu est réservé aux personnes et institutions abonnées.

Lire la suite
🔒 Intelligence artificielle et francophonie en contexte minoritaire : risque ou occasion?

L’essor de l’intelligence artificielle transforme l’éducation, mais en contexte francophone minoritaire, il soulève aussi des questions sur la langue, la culture et l’identité. Comment faire de l’IA un levier d’identité, de créativité et de fierté linguistique pour les élèves? Ce dossier explore les biais culturels et linguistiques des IA, propose des outils pratiques et des exemples concrets pour outiller les enseignants et inspirer des pratiques pédagogiques innovantes au service de la langue et de la culture. À lire pour bâtir la confiance et transformer les défis numériques en occasions pédagogiques.

Ce contenu est réservé aux personnes et institutions abonnées.

Lire la suite
La gestion du projet éducatif : Situations typiques rencontrées par les directions et apports potentiels de l’intelligence artificielle

Le pilotage du projet éducatif constitue une responsabilité stratégique majeure pour les directions d’école au Québec. À partir d’un regard croisé entre la recherche et la pratique, ce dossier identifie six situations typiques rencontrées dans la conception, la mise en œuvre et le suivi du projet éducatif, révélant plusieurs tensions structurelles auxquelles les directions sont confrontées.

Ce dossier explore également le potentiel de l’intelligence artificielle comme levier d’aide au pilotage du projet éducatif. Loin d’être une solution magique, l’IA peut toutefois devenir un outil pertinent pour soutenir le pilotage du projet éducatif, à condition qu’elle soit intégrée dans une démarche centrée sur la réussite éducative et respectueuse de l’éthique et de l’autonomie professionnelle.

Lire la suite
Commentaires, reproduction des textes et usage de l'intelligence artificielle

Pour commenter un dossier et y ajouter vos idées, nous vous invitons à nous suivre sur les réseaux sociaux. Il est aussi possible de commenter directement sur FacebookX, Instagram, Bluesky et LinkedIn.

Sauf dans les cas où la licence est expressément indiquée, il n’est pas permis de reproduire les dossiers ou les articles de l’École branchée. Toute demande de reproduction doit être adressée directement à l’organisme.

Dans son processus éditorial, notre équipe fait appel à des technologies intégrant l’intelligence artificielle pour améliorer les textes, entre autres par la reformulation de passages, la révision linguistique, la traduction et la synthèse des idées. Tous les textes sont révisés par des humains avant leur publication.

Connectez-vous!