À l’automne 2025, la communauté de pratique Branchée sur l’IA! (Canada) s’est associée à la COP, une communauté de pratique en Belgique, pour travailler sur une thématique jugée prioritaire par les participantes et participants : l’évaluation des apprentissages à l’ère de l’IA. L’objectif n’était pas de produire une position « pour ou contre », mais plutôt un livrable utile, ancré dans les réalités de classe et d’établissement.
Le constat de départ est simple : l’évaluation était déjà un sujet sensible avant l’arrivée de l’IA générative, mais elle force maintenant les équipes-écoles à revisiter des questions qui touchent autant la pédagogie que l’éthique, le cadre légal, la transparence et la cohérence institutionnelle.
Le livrable final se décline sous forme d’un dossier interactif, dont voici les grandes lignes!
Interdire, contourner, intégrer : trois postures qu’on voit apparaître

Lors du webinaire d’experts qui a lancé les échanges à l’automne 2025, trois approches ont été mises en lumière.
1) L’évitement : revenir à des évaluations sans IA
C’est l’approche « on ferme la porte ». On privilégie des modalités où l’IA ne peut (ou ne devrait pas) intervenir : examens en présentiel, sans ordinateur, parfois très surveillés. Le bénéfice est évident pour certaines évaluations certificatives : on réduit le risque de triche. Mais cette posture a aussi des limites : elle peut mener à une réduction des tâches évaluées (moins de rédaction, moins de projets), et elle prépare mal les élèves à un monde où l’IA est déjà partout.
2) Le contournement : inventer des évaluations « anti-IA »
Ici, on tente de concevoir des tâches trop contextualisées ou trop complexes pour l’IA. Le document cite des stratégies comme : contextualiser les questions (les ancrer dans l’actualité, le vécu de l’élève), résoudre des problèmes complexes et surtout multiplier les formats (balado, vidéo, portfolio, oral) pour rendre la production plus authentique.
Cette posture pousse souvent à de meilleures tâches… mais elle peut aussi devenir une course : on « durcit » l’évaluation pour déjouer la machine, au risque d’augmenter la charge cognitive ou de rendre la tâche moins accessible aux apprenants.
3) L’intégration : faire de l’IA un outil d’apprentissage (et donc, un objet d’évaluation)
C’est la posture la plus transformatrice : on ne se demande plus seulement comment empêcher l’IA, mais comment développer un usage critique et responsable. Exemples proposés : demander aux élèves de critiquer la réponse de l’IA, de corriger une production générée, ou d’expliquer les étapes d’une résolution après l’avoir utilisée.
En filigrane, un message fort ressort aussi des « réflexions marquantes » : mieux vaut se concentrer sur la compétence réelle démontrée dans un contexte validé que sur l’origine de l’auteur (humain ou IA).
Intégrité et transparence : le vrai tournant n’est pas technologique

Le groupe 1 de la communauté de pratique Branchée sur l’IA! s’est penché sur l’intégrité, la transparence et les balises. L’idée centrale : l’IA n’impose pas seulement de nouvelles règles, elle impose une posture réflexive.
« À éviter » et « À faire » :
- À éviter : cacher l’usage de l’IA, déléguer toute correction à l’IA, croire qu’elle est neutre ou infaillible, rester isolé dans sa pratique.
- À faire : signaler son utilisation, utiliser l’IA comme complément d’évaluation, relire ses grilles et les productions de l’IA, s’informer selon les juridictions, établir des règles d’équipe et d’établissement.
Ce passage est important, parce qu’il réoriente le débat : on n’est pas dans « trouver l’outil miracle », mais dans « construire un cadre commun ». Et cela mène à une proposition très concrète : réaliser une charte d’établissement.
La charte : un outil de cohérence
Le dossier propose une démarche en cinq étapes ainsi que des exemples :
- Identifier les usages de l’IA (qui utilise quoi, comment, dans quels cas)
- Définir opportunités et risques (y compris la légalité)
- Co-construire avec les intervenants (élèves, parents, personnel)
- Prévoir des exceptions et des aménagements
- Communiquer et former
On comprend l’intérêt : la charte évite que chaque enseignant(e) soit seul(e) à « inventer » sa règle, et elle clarifie aux élèves ce qui est attendu, permis, interdit — selon les tâches. Le dossier évoque même l’idée de pictogrammes pour signifier clairement si l’IA est autorisée ou non dans une évaluation.
Enfin, le groupe 1 propose un prototype d’histoire interactive pour établir son profil d’utilisateur, en lien avec son expertise et son score de prudence face à l’IA.
« Bien parler à l’IA » : quand l’art de la requête (prompting) devient une compétence professionnelle

Le groupe 2 de la CoP aborde un point souvent sous-estimé : si l’on utilise l’IA pour concevoir, adapter ou différencier des évaluations, la qualité de la requête (prompt) change tout.
Le document propose une grille « à éviter » / « à faire » très pratico-pratique.
- À éviter : requête floue, objectif non précisé, niveau absent, besoins spécifiques ignorés, format non demandé, aucun feedback, aucun rôle attribué à l’IA.
- À faire : indiquer niveau et discipline, préciser les adaptations inclusives, expliciter le format attendu, demander un feedback immédiat, donner un rôle à l’IA.
Le livrable présente ensuite des techniques testées en communauté de pratique avec des exemples :
- Zero-shot (sans exemple)
- One-shot (avec un exemple)
- Few-shot (avec plusieurs exemples)
- Role prompting (assigner un rôle)
- Reverse prompting (demander à l’IA de poser d’abord des questions)
- Chain of thoughts (raisonnement pas à pas)
À noter : les participants observent aussi que les versions payantes des outils d’IAg comprennent mieux les nuances, et que, si l’on reste sur une version gratuite, la stratégie est souvent d’avancer par étapes, en validant chaque réponse.
Des outils, oui… mais surtout des scénarios d’usage réalistes

Le groupe 3 de la CoP s’attaque à une question que beaucoup d’équipes-écoles se posent : quels outils, et pour quoi faire? L’approche est intéressante, parce qu’elle commence par des balises : respect de l’âge minimum, prudence sur les données personnelles, et importance d’une éducation à l’IA qui commence par l’éthique.
Le document mentionne explicitement, selon les contextes, des cadres comme la Loi 25 (Québec) et le RGPD (Règlement général sur la protection des données, en Europe), rappelant que les données des élèves exigent une vigilance élevée.
La « rampe de lancement » : du passif vers l’actif
Pour intégrer progressivement l’IA en contexte scolaire, une séquence de mise en route est proposée :
- Démonstration par l’enseignant (montrer les limites, générer volontairement une erreur)
- Copilotage en groupe (critiquer une réponse IA ensemble)
- Exploration encadrée (requêtes fournies)
- Autonomie (l’élève formule ses requêtes)
Cette gradation rejoint une préoccupation forte : on veut éviter l’outil « lâché dans la nature », et on veut soutenir l’agentivité des élèves sans les laisser seuls face aux dérives.
Trois piliers pédagogiques
Le livrable synthétise ensuite le potentiel de l’IA en évaluation autour de trois axes :
- Évaluation diagnostique : sonder les acquis pour planifier sur mesure
- Analyse d’erreurs avancée : comprendre le processus cognitif fautif
- Tuteur intelligent : évaluation adaptative qui ajuste la difficulté
Et côté pilotage, on évoque aussi des usages administratifs : centralisation des données, tableaux de bord, détection précoce d’élèves à risque, tout en rappelant un principe clé : l’IA peut fournir des preuves, mais l’enseignant reste le décideur final.
Rétroaction et autoévaluation : un terrain où l’IA peut vraiment aider

Enfin, le groupe 4 se penche sur l’évaluation formative, notamment la rétroaction. Le dossier rappelle d’abord une définition structurée : la rétroaction, c’est une information sur un résultat ou une expérience d’apprentissage, qui vise à aider l’élève à identifier ce qu’il peut améliorer.
Il insiste aussi sur un rappel essentiels des mythes et réalités de l’évaluation à l’aide de l’IA.
- Non, l’IA ne produit pas des rétroactions parfaites : une vérification humaine est nécessaire.
- Non, l’IA ne « comprend » pas l’émotion : elle n’a pas accès aux signaux non verbaux.
- Non, elle ne remplace pas l’enseignant : elle sert de support, notamment au démarrage.
Concrètement, le document propose des idées d’activités : produire plusieurs grilles de rétroaction selon les niveaux, soutenir la révision autonome par des flashcards avec statistiques, ou encore proposer des interactions personnalisables via des agents conversationnels (chatbots) multilingues, entre autres.
Ce que l’IA oblige à clarifier : les critères, les traces, la triangulation

En filigrane de plusieurs sections, on retrouve une idée qui fait consensus : l’IA pousse à rendre l’évaluation plus robuste, notamment par la diversification des preuves d’apprentissage. Le dossier parle explicitement de différencier une évaluation existante en variant les « traces d’apprentissage » et mentionne la triangulation.
Sans entrer dans un jargon local, l’idée est simple : croiser plusieurs types d’indices (production, démarche, oral, observations, métacognition) rend l’évaluation plus équitable… et beaucoup plus difficile à « truquer » uniquement avec un texte généré.
Une conclusion qui déplace le regard

Au final, le message le plus fort qui émane des réflexions de cette communauté de pratique n’est peut-être pas une règle, ni un outil. C’est ce basculement proposé : évaluer la compétence réelle dans un contexte validé, plutôt que mener une chasse à l’IA.
Autrement dit : l’IA force à revenir aux bases de l’évaluation — intentions claires, critères explicites, tâches signifiantes, rétroaction utile — et à renforcer ce qui fait la solidité du métier : le jugement professionnel, la cohérence des équipes, et une pédagogie qui assume le monde tel qu’il est.
Au Québec, le cycle 1 de la CoP Branchée sur l’IA! a notamment été rendu possible grâce au soutien du ministère de l’Économie, de l’Innovation et de l’Énergie via le programme NovaScience, ainsi que d’autres précieux partenaires comme le CADRE21 et l’École en réseau, avec le précieux soutien de l’eduLab.
7 repères concrets pour des évaluations justes, authentiques… et réalistes
1) Commencer par une question simple : qu’est-ce qu’on veut observer?
L’IA bouscule surtout quand l’évaluation repose sur une production unique et qu’on confond « réponse propre » et « compétence ». L’enjeu devient alors de se concentrer sur la compétence réelle démontrée dans un contexte validé, plutôt que de mener une chasse à « l’auteur » (humain ou IA).
2) Interdire, contourner, intégrer : trois postures… et un choix d’équipe
Trois approches qu’on voit déjà en milieu scolaire :
- Évitement : privilégier des évaluations sans IA (souvent en présentiel, sans ordinateur).
- Contournement : créer des évaluations « anti-IA » (très contextualisées, complexes, ancrées dans le réel).
- Intégration : faire de l’IA un outil d’apprentissage et un objet d’esprit critique (ex. : critiquer une réponse générée, corriger, améliorer).
Il n’y a pas une seule « bonne » posture… mais il y a un besoin de cohérence : ce qui est permis dans un cours, interdit dans l’autre ou toléré crée de l’injustice et de la confusion.
3) Miser sur la transparence (plutôt que sur la détection)
Les détecteurs d’IA sont peu fiables et ne constituent pas une solution. La voie proposée : des balises explicites, partagées, compréhensibles par les élèves… et défendables en équipe.
- À éviter : cacher l’usage, déléguer toute correction, croire l’IA infaillible/neutre, utiliser sans relecture.
- À faire : signaler l’usage, utiliser l’IA comme complément, relire et valider, s’informer légalement, établir des règles communes.
Astuce terrain relevée : utiliser des pictogrammes (ou logos) pour indiquer si l’IA est permise et à quel niveau dans une tâche.
4) La charte IA : une « assurance cohérence » pour l’établissement
Plutôt que des règles implicites qui varient d’une classe à l’autre, on propose une démarche en cinq étapes pour une charte d’utilisation de l’IA.
- Identifier les usages (qui utilise quoi, comment, dans quels cas)
- Définir opportunités et risques (dont la légalité)
- Co-construire avec les intervenants (élèves, parents, personnel)
- Prévoir exceptions et aménagements (incluant l’inclusion)
- Communiquer et former (sinon la charte reste une affiche)
Pour un lectorat international, le rappel est important : la prudence sur les données est incontournable, avec des cadres comme la Loi 25 (Québec) et le RGPD (Règlement général sur la protection des données, Europe).
5) Mieux « parler à l’IA » : le prompting devient une compétence professionnelle
Si l’IA sert à adapter une évaluation, différencier, générer une grille, tout se joue dans la qualité de la requête. Comment passer d’une demande floue à un prompt structuré?
À inclure systématiquement :
- Niveau, discipline, programme de référence
- Objectif et critères
- Format attendu (QCM, tâche complexe, oral, grille critériée…)
- Adaptations (inclusion, besoins spécifiques)
- Rôle donné à l’IA (conseiller pédagogique, tuteur socratique, correcteur selon une grille…)
Il existe plusieurs techniques : zero-shot, one-shot, few-shot, role prompting, reverse prompting (l’IA pose d’abord des questions), chain of thoughts (raisonnement pas à pas).
6) Diversifier les preuves : la meilleure « anti-triche » reste… une bonne évaluation
Varier les formats de production (balado, vidéo, portfolio, présentation orale, etc.) réduit la tentation du « copier-coller » et permet d’évaluer des compétences plus larges (communication, argumentation, démarche, métacognition).
En clair : croiser plusieurs indices (produit final + démarche + explication orale/écrite + observations) rend l’évaluation plus robuste… sans transformer l’enseignant en enquêteur.
7) Rétroaction et autoévaluation : là où l’IA peut faire gagner du temps
Une rétroaction efficace est une information utile pour permettre à l’élève d’identifier ce qu’il peut améliorer. Il faut toutefois se méfier des mythes : l’IA n’est pas parfaite, ne comprend pas l’émotion, ne remplace pas l’enseignant.
En revanche, l’IA peut aider à :
- proposer des commentaires différenciés à partir d’une grille
- soutenir la révision autonome (flashcards, statistiques de progression)
- favoriser l’individualisation, par exemple via des interactions encadrées


