Le développement de la compétence numérique et l’accès à la formation continue du personnel enseignant de tous les niveaux scolaires, du préscolaire à l’université, a été au cœur des échanges lors du segment intitulé « L’IA dans les grandes fonctions de l’État » du Forum public sur l’encadrement de l’intelligence artificielle au Québec.
Ce forum public, qui s’est tenu le 2 novembre, fait partie de la démarche de Réflexion collective sur l’encadrement de l’intelligence artificielle, entreprise plus tôt cette année par le Conseil de l’innovation du Québec, à la demande du ministère de l’Économie, de l’Innovation et de l’Énergie du Québec. Au cours des derniers mois, des experts, regroupés en six comités thématiques, ont amorcé la réflexion. Le forum était l’occasion de partager leurs recommandations et de poursuivre le dialogue avec le public.
C’est Monique Brodeur, présidente du Conseil supérieur de l’éducation, qui s’est faite la porte-parole de la thématique « L’IA dans les grandes fonctions de l’État », dans laquelle le volet « Éducation » était inclus. L’apport de Benoît Petit, du RÉCIT, et de Yves Munn, chargé de projets pédagonumériques à l’Université du Québec à Montréal, au sein du groupe de travail, a été souligné.
« L’importance de la littératie numérique et même de la littératie tout court a été nommée à plusieurs reprises au cours de la journée. La littératie apparaît comme nécessaire pour arriver à comprendre l’intelligence artificielle. Ce constat place à l’avant-plan le rôle que peut et doit jouer le système éducatif », a débuté Mme Brodeur.
4 conclusions
Elle a ensuite présenté les quatre conclusions du groupe de travail sur « L’IA dans les grandes fonctions de l’État ».
- L’État doit montrer l’exemple en termes d’adoption et d’utilisation responsable de l’IA par des projets ambitieux et l’utilisation des plus hauts standards de gouvernance de l’IA.
- La Stratégie d’intégration de l’intelligence artificielle dans l’administration publique doit être actualisée pour tenir compte des récents développements de l’IA générative.
- Les appels d’offres publics ainsi que les programmes de soutien à la recherche et à l’innovation en IA dans les entreprises doivent intégrer des critères de responsabilités rigoureux.
- Il est nécessaire d’accroître les synergies entre stratégies, politiques et plan d’action en IA, en gestion des données et en transformation numérique de l’État.
Accroître l’expertise publique pour tirer pleinement profit de l’IA
Puis, elle a présenté les trois recommandations formulées par le groupe de travail sur « L’IA dans les grandes fonctions de l’État ».
- Rapidement former les dirigeants qui sont ou pourraient être responsables de projets en IA sur les enjeux relatifs aux données et à l’IA, notamment l’IA générative.
- Augmenter la capacité d’attraction et de rétention d’experts en données et en IA pour soutenir les ambitions de l’État.
- Rehausser les compétences de l’ensemble des employés de la fonction publique (ce qui inclut bie sûr le personnel enseignant), en données et en IA, mais aussi pour encourager la culture d’innovation.
Concernant l’éducation
Au cours de la discussion qui s’en est suivie, Mme Brodeur a mentionné que le niveau variable de connaissances et de compétences en intelligence artificielle, et même en numérique en général, représente un défi dans le milieu de l’enseignement.
« Il doit maintenant y avoir un mouvement qui permettra d’encourager ceux qui utilisent moins le numérique à le faire, et cela inclut l’IA. Sa valeur ajoutée est déjà reconnue dans certains milieux. Elle a le potentiel d’accroître la qualité des formations offertes. Les milieux ont donc la responsabilité de se saisir de cette technologie. Chaque personne doit pouvoir bénéficier de la meilleure éducation possible », a-t-elle soutenu.
Comme prémisse à cette prise en charge des milieux, il est nécessaire d’accroître la formation de l’ensemble du personnel scolaire. « Le personnel doit bénéficier de modalités facilitantes et avoir du temps accordé pour de la formation. »
La formation du personnel apparaît comme une prémisse afin que celui-ci soit outillé adéquatement pour ensuite former les jeunes au sujet des technologies numériques, incluant l’IA. Un ensemble de compétences transversales doit aussi pouvoir être développé par les jeunes. « On fait souvent référence à la pensée critique, mais n’oublions pas la créativité, la résolution de problèmes et l’esprit d’initiative », a fait remarquer Luc Sirois, innovateur en chef du Québec. « J’espère que nos institutions vont suivre le rythme », a-t-il ajouté.
Kathy Malas, du CISSS de Montérégie-Ouest, anciennement Directrice de la recherche, innovation et apprentissage au CHUM, qui faisait également partie du groupe de travail sur « L’IA dans les grandes fonctions de l’État », a précisé que l’intelligence artificielle offre une panoplie de nouvelles possibilités d’apprentissage : apprentissage dans l’action (simulation), apprentissage personnalisé (en fonction de ce qu’on sait déjà sur un sujet), etc. « Mais il faudra apprendre à apprendre, et ce tout au long de notre vie. »
Trois questions pour aller plus loin
- Des participants (dont nos collaborateurs François Guité et Sylvain Desautels) ont souligné l’absence des apprenants de tout âge dans les discussions. À quand une co-construction des usages avec eux?
- Bruno Poellhuber, professeur à la Faculté des sciences de l’éducation de l’Université de Montréal, qui a participé à l’élaboration du Cadre de référence de la compétence numérique avec le ministère de l’Éducation du Québec, se demande s’il ne serait pas nécessaire de développer un Cadre de la littératie de l’IA pour tous?
- Monique Brodeur a posé la question : Est-ce que chaque personne devrait pouvoir disposer d’un portfolio numérique pour marquer les connaissances et compétences qu’elle a acquises au fil des ans? La reconnaissance des acquis et des compétences devrait-elle pouvoir se faire de façon différente?
En conclusion de la journée, l’innovateur en chef, Luc Sirois, a rappelé qu’il est nécessaire d’encadrer l’intelligence artificielle afin d’en faire un développement éthique et des usages responsables. « Mais, il faut surtout s’équiper pour mieux comprendre cette technologie. Nous pouvons nous en servir pour nous propulser encore plus loin. »
La démarche de Réflexion collective sur l’encadrement de l’intelligence artificielle se poursuit. Des recommandations globales seront diffusées d’ici la fin de l’année 2023.