ANNONCE

Établir une politique scolaire concernant l’IA : une leçon de prudence

Comment pouvons-nous mettre en place l'intelligence artificielle (IA) dans les écoles de manière responsable? Comment pouvons-nous établir des politiques de manière équitable? L’histoire suivante peut nous donner quelques indications.

Publié le :

Classé dans :
ANNONCE

Par Matt Miller, Ditch That Textbook
Traduit de l’anglais par Alexandra Coutlée, Martine Rioux et ChatGPT

Article original : Setting school policy about AI: A cautionary tale (traduit et publié avec la permission de l’auteur)

Comment pouvons-nous mettre en place l’intelligence artificielle (IA) dans les écoles de manière responsable? Comment pouvons-nous établir des politiques de manière équitable? L’histoire suivante peut nous donner quelques indications.

En février 2023, une école secondaire de Floride a découvert que les élèves utilisaient des assistants d’intelligence artificielle comme ChatGPT pour faire leurs devoirs.

Selon des articles publiés dans les médias locaux, la réaction de la direction de l’établissement a été d’affirmer que les élèves feraient potentiellement face à des conséquences « graves » s’ils n’admettaient pas avoir utilisé l’IA dans leurs travaux, et que l’on pourrait même aller jusqu’à les empêcher de graduer.

C’est un problème courant auquel de nombreuses écoles sont confrontées actuellement : dans quelle mesure l’IA doit-elle être utilisée par les élèves à des fins d’apprentissage, et de quelle manière en fait-on un usage responsable?

Nous sommes présentement en territoire inconnu avec l’IA. Nous avons déjà vu des perturbations innovantes, mais rien ne se compare en termes d’ampleur et de magnitude.

Il est assez clair que nous avons besoin de deux choses plus que jamais :

De la transparence. Et, beaucoup de discussions.

Dans cet article, nous examinerons la réaction de cette école face à l’utilisation de l’IA par les élèves – en plus d’énoncer quelques mesures que nous pouvons mettre en œuvre pour avancer positivement.

En toute transparence : la plupart des informations présentées dans ce texte proviennent de reportages de médias locaux et nationaux. Je ferai de mon mieux pour les mettre en contexte et apporter des nuances. En réalité, cela ne donne qu’un aperçu de ce que vivent les écoles de partout dans le monde en ce moment.

Détails sur la réaction de l’école secondaire en Floride

J’ai consulté le site Web de l’école en question, Cape Coral High School, qui offre un programme de Baccalauréat international (BI). Les élèves peuvent choisir de suivre des cours de ce programme pour obtenir une mention sur leur diplôme de fin d’étude.

« Tous les élèves sont tenus au plus haut niveau d’excellence académique et de comportement personnel », lit-on dans le Guide de l’élève de l’école. « Le rôle du travail académique est d’enseigner des compétences, de fournir des connaissances et de permettre la croissance intellectuelle nécessaire pour être prêt pour l’université et pour occuper un emploi. »

Ainsi, lorsque les enseignants ont remarqué que le travail des élèves semblait étrangement différent du style des travaux précédents, ils ont commencé à en discuter entre eux.

Un courriel a été envoyé par le responsable du programme du baccalauréat international de l’école aux familles des élèves pour exprimer certaines préoccupations. Voici quelques extraits du courriel (le courriel complet est disponible dans ce reportage de la presse locale) :

Récemment, l’utilisation de générateurs d’IA est devenue une préoccupation majeure. L’utilisation de générateurs d’IA est une violation de notre politique d’intégrité académique. Il y a eu des travaux au BI soumis qui sont discutables pour plusieurs raisons, notamment en raison des styles d’écriture très différents des travaux précédemment soumis.

Nous utilisons des détecteurs d’IA et notre propre enquête sur les appareils Chromebook pour vérifier l’authenticité des travaux d’élèves suspects.

J’ai demandé aux élèves de venir me parler en privé s’ils avaient utilisé des générateurs d’IA pour leurs travaux afin que nous puissions corriger les problèmes dès maintenant. Si les élèves ne se présentent pas d’eux-mêmes, il y aura des conséquences plus graves, si une faute est constatée.

Nos enseignants doivent authentifier tous les travaux des élèves avant de les soumettre au BI. S’ils ne sont pas en mesure d’authentifier le travail d’un élève, alors l’élève n’aura pas réussi le programme du BI. Si le travail arrive au BI et que celui-ci constate que le travail n’est pas authentique, alors l’élève n’aura pas réussi le programme, ce qui signifie que l’élève n’aura pas obtenu son diplôme de fin de secondaire.

Veuillez avoir une conversation à la maison sur l’intégrité académique et l’utilisation des générateurs d’IA avec votre ou vos enfants.

Voici comment le président de l’association des enseignants du comté, Kevin Daly, a commenté la situation (selon la chaîne d’informations locales) :

Je ne suis pas sûr que les besoins d’apprentissage des élèves soient mieux servis en utilisant cet outil. Je n’en ai jamais entendu parler dans le milieu éducatif. Il semble qu’il ait la capacité d’être mal utilisé.

Il n’y a aucun moyen de le comparer à quoi que ce soit dans TurnItIn (NDLR : un détecteur de plagiat) car en soi, c’est une source originale. Je pense que le système sera désavantagé pendant un temps considérable jusqu’à ce que nous parvenions à mettre en place des pare-feu et des garde-fous raisonnables pour veiller à ce qu’il ne soit pas mal utilisé et que les élèves réalisent des travaux originaux.

Après que cette histoire ait éclaté, l’Organisation du baccalauréat international (OBI) a publié une déclaration sur l’utilisation de ChatGPT et de l’intelligence artificielle. Elle suggère que nous devons nous adapter à ces outils qui feront partie de notre vie quotidienne à l’avenir. Cependant, l’OBI ne reconnaît pas le travail créé par les outils d’IA comme étant le propre travail d’un élève et un tel travail devrait être cité dans la bibliographie. Lisez-en plus à ce sujet dans la déclaration de l’OBI et dans cet article du responsable des principes et des pratiques d’évaluation de l’OBI.

Observations et réflexions qui peuvent guider les prochaines décisions

Le but de cette publication n’est pas de blâmer cette école et sa gestion de la situation. Je suis sûr que les membres du personnel enseignant se soucient de leurs élèves et veulent les voir réussir. De plus, lorsqu’une situation comme celle-ci se présente, les premiers établissements à prendre des mesures officielles semblent être les plus scrutés par les médias. Cette école était certainement dans une situation très difficile, et je ne connais pas toutes les personnes et influences qui ont joué dans les décisions prises.

Nous pouvons tout de même en apprendre beaucoup en analysant la situation.

En réalité, on peut l’utiliser comme une histoire à méditer alors que nous essayons de trouver une place appropriée et responsable pour l’IA dans l’éducation.

1. Définir ce qu’est l’utilisation appropriée de l’IA dans les politiques de l’école.

La politique d’honnêteté académique de l’école de Floride, telle qu’exprimée dans le guide de l’élève, laisse beaucoup de zones grises sujettes à interprétation lorsqu’il est question d’utilisation de l’IA. Elle est formulée de manière similaire dans de nombreuses autres écoles! Voici un extrait :

Il est de la responsabilité de chaque élève de faire son propre travail sur les devoirs, les examens et les questionnaires et de ne pas copier le travail d’un autre élève et de le présenter comme le sien, ce qui est considéré du plagiat. La conséquence du plagiat d’un devoir, d’un examen ou d’un questionnaire sera une note de zéro (0).

Le courriel du responsable du BI indiquait :

Récemment, l’utilisation de générateurs d’IA est devenue une préoccupation majeure. L’utilisation de générateurs d’IA est une violation de notre politique d’intégrité académique.

Les définitions sont importantes. Dans cette section du guide, il définit le plagiat comme le fait de « ne pas copier le travail d’un autre élève et de le présenter comme le sien ». Nous parlons ici de propriété intellectuelle, et selon les définitions actuelles (au moment de la publication de cet article), c’est le « produit de l’intellect humain ».

ChatGPT (au moment de la publication de cet article) vous dira que ses réponses sont « généralement considérées comme étant dans le domaine public », à moins que ses réponses ne soient générées selon les termes ou conditions d’un service payant ou d’un contrat.

Domaine public : « État d’appartenance ou de disponibilité pour le public en général, et donc non soumis au droit d’auteur » (de Oxford Languages via Google)

Selon toutes les définitions ci-dessus, l’utilisation par les élèves de réponses créées par l’IA n’est donc pas du plagiat.

Souhaitons-nous que les élèves ne réfléchissent pas, qu’ils insèrent simplement les consignes d’un travail de classe dans un assistant IA sans apprendre? Surtout pas. Je pense que nous pouvons tous en convenir!

Toutefois, il est également difficile de respecter les règles lorsqu’elles sont floues.

Maintenant, j’avoue que j’ignore ce qui a été dit ou écrit aux élèves en dehors du guide de l’élève et du courriel publié dans les nouvelles locales. L’école a peut-être pu aborder le sujet autrement. De plus, il est presque impossible de réviser le guide d’une école en plein milieu de l’année scolaire pour prendre en compte une nouvelle forme de technologie qui a un impact sans précédent sur l’éducation.

Mais, on peut comprendre que c’est une pilule difficile à avaler quand on vous accuse de tricherie en vertu d’une politique qui ne le précise pas clairement.

Que pouvez-vous faire dans votre milieu?

Avoir beaucoup de conversations sur ce à quoi ressemble une utilisation responsable d’une IA générative. Parlez aux élèves, aux membres du personnel enseignant, aux directions, aux parents, aux membres de la communauté… vraiment, à toute personne ayant un intérêt dans l’apprentissage de l’élève. Discutez même avec les propriétaires d’entreprises qui peuvent employer des élèves. Ensuite, après beaucoup de conversations, révisez la politique de l’école pour refléter ces constats.

2. « Faire le travail soi-même » est une norme floue.

Une réplique courante à tout cela est : « Les élèves auraient dû savoir. Ils doivent faire le travail eux-mêmes. »

C’est aussi une norme complètement floue à exiger des élèves.

Par exemple, nous utilisons déjà des moteurs de recherche pour rechercher des faits de base – et c’est une pratique courante en classe maintenant.

Dans ce contexte, on peut se demander : Qu’est-ce qu’un travail de recherche? C’est une compilation de recherches existantes. Nous empruntons (ou plutôt… « citons ») d’autres travaux de recherche pour créer un nouveau travail unique. (Enfin, plus ou moins nouveau et plus ou moins unique.)

« Authenticité » et « authentification » sont des mots qui ont été répétés plusieurs fois dans le courriel provenant de l’école secondaire.

Nous utilisons des détecteurs d’IA et notre propre d’investigation des appareils Chromebook pour vérifier l’authenticité des travaux suspects des élèves. S’ils ne sont pas en mesure d’authentifier le travail d’un élève, alors l’élève n’aura pas réussi à terminer le programme de l’IB (…) ce qui signifie que l’élève n’a pas obtenu son diplôme de fin d’études secondaires.

Nous devons être clairs sur ce que nous considérons comme un travail authentique et quelles sont les attentes envers les élèves – surtout face à l’évolution du futur du travail. Nous devons également nous assurer que le travail que nous leur demandons de faire les prépare réellement pour l’avenir auquel ils seront confrontés.

La classe du BI où les élèves ont utilisé l’IA dans leur travail, selon le courriel envoyé aux parents, était la classe de Théorie de la connaissance. Je n’ai jamais suivi ni enseigné ce cours, donc je suis encore en train d’apprendre à son sujet… mais il me semble en plus être l’endroit idéal pour avoir ce genre de conversations avec les élèves!

Que pouvez-vous faire dans votre milieu?

Discutez avec les élèves (et avec le personnel enseignant) de l’équilibre entre l’utilisation, le remixage, l’édition et la création de ressources à partir de zéro. Identifiez les moments où il est responsable de le faire et ceux où cela ne l’est pas. Identifiez comment cela est fait ou non dans le monde réel. Ensuite, utilisez les résultats de ces discussions pour guider la politique et la pratique à l’école.

3. Clarifier les politiques et recherches avant de punir.

Il est clair que les assistants et autres outils génératifs d’IA ont créé un scénario que les politiques de cette école n’avaient pas envisagé. Lorsque les dirigeants ont vu quelque chose qui ne leur convenait pas, ils auraient pu prendre plusieurs mesures.

Ces dirigeants auraient pu identifier ce qu’ils n’aimaient pas et mettre en place des mécanismes pour aider les élèves à savoir comment procéder à l’avenir. Dans ce cas, en l’absence d’information, les élèves ont choisi leur propre ligne de conduite.

Ces dirigeants ont plutôt puni les élèves pour ce qu’ils n’aimaient pas, même s’il n’était pas spécifié que les élèves ne devaient pas agir comme ils l’avaient fait.

Quand les choses sont floues, punir ce qu’on n’aime pas ne résoudra pas le problème, mais ruinera possiblement les relations avec les élèves, tout en ajoutant une source d’anxiété. 

Que pouvez-vous faire dans votre milieu?

Recueillir des informations, des points de vue, des opinions, etc. avant de prendre des mesures – surtout punitives. Éventuellement, rectifier les orientations en se tournant vers les actions d’un avenir mieux balisé plutôt que sur celles d’un passé flou. 

4. S’assurer d’établir des mesures proposant des informations précises.

Le courriel de l’école secondaire de Floride indiquait : « Nous utilisons des détecteurs d’IA et notre propre enquête sur les appareils Chromebook pour vérifier l’authenticité des travaux d’élèves suspects ».

La déclaration du district scolaire disait : Dans le cadre de nos efforts continus en matière de cybersécurité, notre équipe des services informatiques continue de renforcer les fonctionnalités de sécurité des appareils Chromebook pour bloquer l’utilisation de l’IA qui pourrait contribuer à tout travail d’élève.

Pourtant, il a été bien documenté que les détecteurs d’IA existants sont truffés d’inexactitudes. Ils produisent régulièrement de faux positifs, affirmant que le texte créé par un humain a été créé par une IA, et de faux négatifs, affirmant que le texte créé par une IA a été créé par un humain.

Utiliser des détecteurs d’IA pour punir les élèves pour tricherie n’est assurément pas une solution gagnante. Vous auriez besoin d’une preuve solide, un peu comme une preuve dans un tribunal. Si votre preuve n’est pas valable, il est difficile de condamner académiquement un élève pour quelque chose dont vous n’êtes pas sûr. Les détecteurs d’IA ne fournissent pas de preuve solide.

L’utilisation d’une enquête sur les appareils Chromebook des élèves ne sera probablement pas non plus utile. Prouver qu’un élève a visité un assistant IA ne montre qu’une corrélation et non une causalité. Cela pourrait montrer que l’élève a été sur le site, mais cela ne montre pas que l’élève a utilisé le site pour copier et coller du travail pour la classe. Il faudra chercher plus loin.

Bloquer les sites publics que les élèves ne peuvent utiliser peut fonctionner en partie… mais soyons honnêtes : si les élèves désirent utiliser un assistant IA pour faire leurs devoirs, et s’ils savent qu’ils sont surveillés par l’école, ils n’utiliseront pas l’appareil fourni par l’école pour le faire…

Que pouvez-vous faire dans votre milieu? 

Si une école ou un centre de services, conseil scolaire ou district décide de bloquer des outils d’IA comme ChatGPT, il doit avoir une bonne raison de le faire. Mais ce n’est qu’une partie de l’équation. Cela doit aussi faire partie d’une décision plus large sur le rôle qu’il joue dans l’apprentissage et comment il doit être utilisé de manière responsable à l’école.

5. Avoir l’avenir en tête

La vision de l’école dont il a été principalement question depuis le début de cet article étaient indiquée ainsi dans son guide de l’élève  : « Chaque élève prêt pour l’avenir. »

Si la vision de l’école est un slogan pour guider la stratégie globale et les opérations quotidiennes de l’école, je ne pense pas que cette décision prépare les élèves pour l’avenir.

Le président du syndicat des enseignants a déclaré : « Je pense que le système sera désavantagé pendant un certain temps jusqu’à ce que nous soyons en mesure d’obtenir des pare-feu et des garde-fous raisonnables pour nous assurer que cela n’est pas mal utilisé et que les élèves réalisent un travail original. »

Je discute de l’idée de voir l’école à travers des « lunettes de demain » dans mon livre, IA pour les éducateurs. Il est facile de regarder l’école à travers des « lunettes d’aujourd’hui », car cela repose sur l’expérience vécue et les données que nous avons recueillies dans le passé. Nous pouvons prendre des décisions en nous basant sur ce qui s’est déjà passé lorsque nous utilisons des « lunettes d’aujourd’hui ».

Ce dont nos élèves ont besoin, ce sont des enseignants qui regardent à travers des « lunettes de demain ».

Les « lunettes de demain » tentent de voir le monde tel qu’il sera. Remarquez que j’ai dit : « tentent de voir ». C’est parce que l’utilisation des « lunettes de demain » est imprécise. Elle est basée sur des prédictions, en analysant les informations dont nous disposons et en anticipant ce qui va se passer.

Plus haut, le président du syndicat des enseignants voulait s’assurer que les élèves réalisent un travail original. Quelle est la définition du « travail original » lorsque l’on regarde à travers des « lunettes de demain »? Les adultes utilisent des assistants IA dans leur travail quotidien dès maintenant. Ils ne génèrent pas un travail entièrement original à chaque fois. Ils trouvent des façons responsables d’utiliser l’IA pour les aider dans leur travail – de manière authentique – afin de pouvoir accomplir davantage. Et, ils continuent de réfléchir et de s’engager dans le processus tout en le faisant. Cela pourrait être une meilleure définition du « travail original » lorsque l’on regarde à travers des « lunettes de demain ».

C’est compliqué et il est difficile de se faire une idée précise de l’avenir. Nous nous tromperons parfois lorsque nous utilisons des « lunettes de demain ». C’est quand même notre seul espoir de préparer les élèves à ce monde dans lequel ils vivront.

Que pouvez-vous faire dans votre milieu? 

Posez-vous la question : « Comment cette décision prépare-t-elle les élèves à l’avenir dans lequel ils vivront? Comment maintient-elle simplement le statu quo du présent – voire du passé? »

6. Ne pas mettre les élèves dans une situation désavantageuse.

La déclaration sur l’intégrité académique du BI, publiée en octobre 2019, indique : « Les résultats ne peuvent pas être équitables si certains élèves ont un avantage déraisonnable par rapport aux autres. »

Ceci n’est qu’un aspect de la question. Et bien sûr, l’OBI et les écoles qui utilisent son programme ont intérêt à préserver cet aspect de la question. Ils veulent assurer la renommée du programme de BI afin que les écoles et, par conséquent, les élèves, puissent bénéficier des droits et des privilèges liés à l’obtention d’un diplôme de BI.

Voici cependant l’autre aspect de la question…

On pense ainsi protéger les élèves d’une technologie qui sera pourtant courante sur leur lieu de travail dans l’avenir. Ces élèves ont donc, à mon humble avis, un désavantage déraisonnable par rapport aux autres.

Parfois, à l’école, nous pensons que nous pouvons créer une bulle artificielle où les choses que nous n’aimons pas n’existent tout simplement pas. Et parfois, c’est possible. 

Nous pouvons protéger les élèves uniquement de certaines choses lorsqu’ils sont sur le terrain de l’école. L’intelligence artificielle n’est pas l’une de ces choses. Elle est disponible partout. Elle est même disponible à l’intérieur de la bulle artificielle que nous essayons de créer lorsque les élèves y accèdent à partir de leurs téléphones personnels, ou utilisent le partage de connexion de leur téléphone avec un réseau wifi qui n’est pas soumis au filtre Internet de l’école.

Si nous maintenons notre position et essayons de préserver notre bulle, cela créera un fossé d’équité entre les élèves qui ont des téléphones portables et des données cellulaires (et qui savent comment accéder et utiliser l’IA) et ceux qui n’en ont pas.

Le fossé d’équité s’aggrave encore si nous maintenons notre position concernant notre bulle artificielle « sans IA ».

Certaines écoles deviendront des modèles pour une utilisation appropriée de l’IA. Les enseignants montreront aux élèves comment elle peut être utilisée de manière éthique et responsable. Ces élèves comprendront comment fonctionne l’IA et ce qu’elle peut faire. Ils auront l’occasion de pratiquer avec celle-ci.

Et les élèves d’autres écoles avec une bulle artificielle « sans IA »? Ils ne bénéficieront tout simplement pas de ces opportunités.

Avancez rapidement de cinq ans. Ou de dix ans. Quels élèves seront avantagés ou désavantagés? Nous avons utilisé l’argument du désavantage précédemment pour dire que les outils d’IA ne devraient pas être utilisés en classe. Mais, maintenant, en envisageant le long terme, cela semble être un désavantage bien plus important.

Que pouvez-vous faire dans votre milieu?

Les enseignants peuvent réfléchir et essayer de nouvelles pratiques pédagogiques qui font une utilisation appropriée de l’intelligence artificielle. Ensuite, ils peuvent réfléchir et évaluer l’efficacité de ces pratiques pour les améliorer. Les dirigeants de l’école peuvent donner aux enseignants le pouvoir d’essayer ces nouvelles pratiques pédagogiques, et leur fournir des formations de développement professionnel pour les aider à les utiliser efficacement.

Conclusion : L’intégrité académique demeure cruciale.

Cet article n’est pas une tentative de permettre aux élèves de faire tout leur travail de manière aveugle avec l’intelligence artificielle, simplement parce que c’est plus facile et plus rapide et que c’est à leur disposition.

J’espère qu’il contribuera à la conversation sur l’intégrité académique dans un monde où l’IA existe.

Il n’y a pas de solution claire et nette, ni de position absolument meilleure que les autres. Toutes les solutions que nous trouverons continueront de nécessiter de la nuance et des ajustements à mesure que la technologie évolue et que notre monde s’y adapte.

Si nous n’aimons pas quelque chose de la réalité actuelle, la meilleure démarche pour y remédier n’est certainement pas de punir les élèves qui la perpétuent.

Nous devons nous arrêter. Observer. Apprendre. Envisager l’avenir. Et nous devons continuellement nous demander : « Qu’est-ce qui est le mieux pour les élèves… et quelle est la meilleure façon de les positionner pour l’avenir? »

Nous devons être prêts à agir. Et être prêts à nous tromper parfois, car c’est ce qui risque de se produire lorsque nous utilisons nos « lunettes de demain » pour planifier l’avenir de nos élèves.

En fin de compte, nous devons réaliser que nous sommes tous dans la même situation et que nous devons travailler ensemble pour trouver les meilleures voies à suivre pour l’avenir.

À propos de l'auteur

Alexandra Coutlée
Alexandra Coutlée
Passionnée de développement professionnel et de numérique au service de l’apprentissage, Alexandra détient un DESS en technologie éducative et un baccalauréat en enseignement de l'anglais, langue seconde, en plus d'une certification Google Trainer (et plusieurs autres!). Elle a enseigné au secondaire pendant une quinzaine d’années avant de faire le saut en conseillance pédagogique, puis en tant que directrice de l'innovation pédagogique de l’École branchée. Elle adore réseauter et partager ses découvertes et est toujours en posture d’apprenante!

Recevez l'infolettre Hebdo

Recevez l'Info #DevProf et l'Hebdo pour ne rien manquer des nouveautés de l'École branchée!


Vos commentaires

Pour commenter un article et y ajouter vos idées, nous vous invitons à nous suivre sur les réseaux sociaux. Tous les articles y sont publiés et il est aussi possible de commenter directement sur Facebook, Twitter, Instagram ou LinkedIn.

Reproduction de textes

Toute demande de reproduction des articles de l'École branchée doit être adressée à l'organisme de gestion des droits Copibec.

Faites briller vos projets d'école et pratiques gagnantes!

L'École branchée fait circuler l'information dans le milieu scolaire afin d'alimenter la veille professionnelle et valoriser les initiatives émanant du terrain. Allez-y, proposez-nous un texte! >

À lire aussi

Le Défi lecture Leucan : soutenez les enfants atteints de cancer avec votre classe, une page à la fois

Plongez vos élèves dans une aventure littéraire et solidaire avec le Défi lecture Leucan! Découvrez comment stimuler la passion de la lecture tout en soutenant une cause importante. Lisez l'article complet pour en savoir plus! [🤝 Reportage commandité]

Les #Édubrèves – édition du 26 mars 2024

Voici vos #Édubrèves. Dans cette édition : Jamais trop tôt pour apprendre à bien s'informer, Créer une atmosphère de collaboration à distance, Enseignez les leçons les plus populaires de Canada en programmation, Promouvoir la santé mentale positive dans les écoles, Comment faire résonner la culture francophone à l’école?, l’intégration de la technologie en classe et la motivation chez les jeunes, appel de propositions pour le prochain congrès de l'ACELF, des ressources en francisation, et bien plus!

L’École branchée au 42e colloque de l’AQUOPS

Le 42e colloque de l'Association Québécoise des Utilisateurs d’Outils technologiques à des fins Pédagogiques et Sociales (AQUOPS) se tient du 26 au 28 mars prochain. L’équipe de l’École branchée sera bien active et présente plusieurs ateliers. Voici où nous trouver.