ANNONCE
L'École branchée, un organisme à but non lucratif
ANNONCE

ChatGPT : le plagiat n’est que l’arbre qui cache la forêt

ChatGPT n’est que l’un parmi de nombreux systèmes d’IA, déjà existants, qui vont transformer la société, et nous pouvons nous attendre à ce que d’autres apparaissent bientôt. Au lieu d'essayer d'empêcher les étudiants d'utiliser ChatGPT, nous devons réformer la façon dont nous enseignons.

Publié le :

Classé dans :

Par Claire Boine, Université d’Ottawa/University of Ottawa et Céline Castets-Renard, Université Toulouse 1 Capitole

Le débat sur les promesses et les risques de l’intelligence artificielle a été bousculé le 30 novembre 2022, lorsque l’entreprise OpenAI a lancé ChatGPT. ChatGPT est une version améliorée et gratuite de GPT-3, un puissant système lancé en 2020 qui génère du texte. C’est ce qu’on appelle un modèle de langage. GPT-3 a d’ailleurs été utilisé pour rédiger un article d’opinion du Guardian, soutenant que l’IA ne détruira pas les humains.

En décembre, plus d’un million de personnes ont utilisé ChatGPT et publiaient en ligne des codes informatiques, des programmes de recettes hebdomadaires, des présentations de travail et des dissertations générés par le système.

ChatGPT et GPT-3 peuvent également résoudre des problèmes mathématiques, corriger la grammaire ou simplifier un texte compliqué. À l’heure actuelle, ChatGPT ne peut plus répondre à la demande ; le site n’a pas la capacité de supporter le nombre trop élevé d’utilisateurs.

Ayant été entraînés sur une grande quantité de données, notamment des sites Web, des livres et Wikipédia, ces systèmes peuvent imiter différents styles littéraires, et notamment expliquer dans un style biblique comment retirer un sandwich d’un magnétoscope, écrire des poèmes dans le style de Baudelaire ou produire des scénarios de scènes de l’émission à succès Friends.

Pour la première fois, la société saisit pleinement l’ampleur des transformations à venir. Pourtant, une grande partie du débat public sur ChatGPT se concentre sur la question du plagiat à l’école. La crainte, largement répandue, que les étudiants utilisent ChatGPT pour rédiger leurs dissertations distrait le public de questions beaucoup plus importantes.

Expertes en droit et politiques de l’intelligence artificielle, nous proposons d’apporter un éclairage sur les derniers systèmes d’IA et les véritables risques qu’ils présentent.

Bien comprendre les modèles de langage

Les modèles de langage sont des systèmes d’IA entraînés à estimer la probabilité qu’une séquence de mots apparaisse dans un texte. Ils sont utilisés de diverses manières, notamment dans les clavargades virtuels, les applications de messagerie et les logiciels de traduction. Pensez par exemple à votre application de messagerie qui vous suggère le mot suivant dans la phrase que vous avez commencée. Certains modèles de langage sont appelés grands modèles de langage, lorsqu’ils sont entraînés sur un nombre de paramètres très élevé, bien qu’il n’y ait pas de seuil précis pour ce nombre.

Ces modèles ont été révolutionnés par l’invention d’une nouvelle technologie, appelée transformeurs, en 2017. De nombreux modèles de langage impressionnants utilisant des transformeurs ont vu le jour, tels que GPT-3, Bloom, LaMDA, Megatron-Turing NLG et PaLM. Alors que ChatGPT a été entraîné sur 175 milliards de paramètres, PaLM de Google a été entraîné sur 540 milliards et peut expliquer des blagues et produire des raisonnements logiques sophistiqués. Les transformeurs ont également été utilisés pour créer des systèmes qui génèrent des images à partir de textes, comme DALL.E 2, qui peut produire une image crédible d’un koala qui joue (et marque !) au basketball. En fait, certains artistes utilisent désormais l’IA pour générer leurs œuvres.

Le débat sur le plagiat ne date pas d’hier

L’IA révolutionne actuellement le monde du travail. Des personnes n’ayant aucune formation en programmation peuvent produire des codes informatiques, n’importe qui peut générer des cartes, des diapositives, des dessins, des photos, des sites web, des textes ou des documents juridiques. Les professionnels de demain s’appuieront sans doute sur ces outils. Il convient donc de se poser la question suivante : quel est le but de l’éducation si ce n’est de préparer les étudiants à la société et au travail ?

Un débat sur le plagiat a eu lieu dans les années 90, lorsqu’internet s’est développé. Les professeurs d’université déploraient alors que leurs étudiants copient des informations provenant de sites web et journaux électroniques ou demandent de l’aide sur des forums en ligne. Bien entendu, le fait de ne pas citer ses sources est problématique ; c’est ce qu’on appelle du plagiat. Mais les premiers tricheurs qui utilisaient Internet ont appris à effectuer des recherches sur le Web et à trier les informations. En fait, le système scolaire s’est depuis adapté pour privilégier les aptitudes à recueillir, analyser, synthétiser et évaluer l’exactitude et l’utilité des informations. C’est l’une des raisons pour lesquelles les jeunes adultes d’aujourd’hui sont plus résistants à la désinformation que leurs aînés.

ChatGPT n’est que la pointe de l’iceberg

Aujourd’hui, l’IA introduit une révolution encore plus importante que celle provoquée par l’arrivée d’internet. ChatGPT n’est que l’un parmi de nombreux systèmes d’IA, déjà existants, qui vont transformer la société, et nous pouvons nous attendre à ce que d’autres apparaissent bientôt. Actuellement, les trois ingrédients des systèmes d’IA – la puissance de calcul, les algorithmes et les données – s’améliorent tous à un rythme effréné. ChatGPT n’est que la partie visible de l’iceberg, et nous devons préparer les étudiants aux changements sociaux importants que l’IA va entraîner.

Au lieu d’essayer d’empêcher les étudiants d’utiliser ChatGPT, nous devons réformer la façon dont nous enseignons. Cette réforme ne doit pas consister à trouver des devoirs astucieux pour lesquels les étudiants ne peuvent pas utiliser ChatGPT. Nous devons nous assurer que les étudiants peuvent utiliser les systèmes d’IA correctement.

ChatGPT est formé en partie à partir de rétroaction humaine. Les humains lisent la réponse produite par le système et jugent si elle est véridique et informative. Pour certains sujets, en particulier ceux qui requièrent une expertise approfondie, les réponses peuvent sembler plausibles aux yeux des humains, mais contenir des inexactitudes, qui sont ainsi renforcées. Au fil du temps, il deviendra encore plus difficile pour les humains de remarquer les écarts subtils par rapport à la vérité. Les enseignants pourraient ainsi créer des devoirs qui requièrent l’utilisation de ChatGPT, en demandant aux étudiants de vérifier des faits moins connus et d’apporter des éclairages plus subtils.

ChatGPT, c’est quoi exactement ?

Un appel à la prudence

Mais surtout, nous devons sensibiliser nos étudiants aux risques que présentent ces systèmes. Il a été démontré que les grands modèles de langage reproduisent les biais et préjugés, donnent des conseils potentiellement dangereux et facilitent la manipulation des consommateurs. Bientôt, ces modèles pourraient mener à la manipulation de masse. Ils peuvent également être à l’origine de violations légales de la confidentialité des données et des droits de propriété intellectuelle, sur lesquelles les étudiants doivent rester vigilants.

Qui plus est, les créateurs et les utilisateurs de systèmes d’IA reposant sur des transformeurs découvrent régulièrement que ces systèmes sont capables de tâches, parfois problématiques, dont ils n’avaient pas conscience. Par exemple, des chercheurs ont démontré qu’ils pouvaient utiliser un modèle de langage pour calculer la probabilité que des accusés récidivent, une tâche pour laquelle le modèle n’avait pas été intentionnellement entraîné. Les développeurs des premiers grands modèles de langage ne s’attendaient pas à ce que ceux-ci puissent faire de l’arithmétique ou du raisonnement. Cette imprévisibilité des tâches réalisables avec ces systèmes augmente le risque qu’ils soient utilisés à des fins néfastes ou se comportent contre l’intérêt de ses utilisateurs.

https://twitter.com/PopcornTalkshow/status/1602726273712885766?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1602726273712885766%7Ctwgr%5Eec4f06e916edca277813dd561ac61d111458754e%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Ftheconversation.com%2Fchatgpt-le-plagiat-nest-que-larbre-qui-cache-la-foret-198972

Les étudiants doivent se préparer. Ils doivent apprendre à évaluer les systèmes d’IA de manière critique, tout comme la génération précédente a dû apprendre à trier les informations en ligne. Ils peuvent également signaler tout bogue informatique ou comportement inattendu qu’ils constatent afin de contribuer à leur sécurité. En outre, ils devraient participer à des conversations démocratiques pour déterminer quelles valeurs et principes devraient guider les comportements des systèmes d’IA.

Et même s’ils n’ont pas besoin d’apprendre certaines compétences qui seront automatisées, ils devraient comprendre les bases du fonctionnement de l’IA et les risques qu’elle comporte.

Par Claire Boine, Research associate, L’Université d’Ottawa/University of Ottawa et Céline Castets-Renard, Professeur de droit à l’Université d’Ottawa et titulaire de la Chaire « Law, Accountability and Social Trust in AI », Université Toulouse 1 Capitole

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

À propos de l'auteur

Collaboration spéciale
Collaboration spéciale
L'École branchée diffuse des textes provenant d'acteurs de la communauté éducative. Vous pouvez contribuer vous aussi! Profitez-en pour transmettre vos idées, parler d'un projet pédagogique vécu en classe, etc. Trouvez les détails dans le menu À propos / Soumettre un article.

Recevez l'infolettre Hebdo

Recevez l'Info #DevProf et l'Hebdo pour ne rien manquer des nouveautés de l'École branchée!


Vos commentaires

Pour commenter un article et y ajouter vos idées, nous vous invitons à nous suivre sur les réseaux sociaux. Tous les articles y sont publiés et il est aussi possible de commenter directement sur Facebook, Twitter, Instagram ou LinkedIn.

Reproduction de textes

Toute demande de reproduction des articles de l'École branchée doit être adressée à l'organisme de gestion des droits Copibec.

Faites briller vos projets d'école et pratiques gagnantes!

L'École branchée fait circuler l'information dans le milieu scolaire afin d'alimenter la veille professionnelle et valoriser les initiatives émanant du terrain. Allez-y, proposez-nous un texte! >

À lire aussi

« L’école, c’était mieux avant ! » : les enjeux d’un leitmotiv politique

Dans ce texte de La Conversation, Yann Forestier déplore la nostalgie de « l'école d'avant ». Ce faisant, « on relègue au second plan l’enjeu de l’invention d’une école capable de faire face aux défis des inégalités sociales, de l’explosion des cultures médiatiques ou de l’internationalisation des savoirs », écrit-il.

Certains jeunes ont d’importants retards à la rentrée. Voici comment y remédier… durant l’été

Environ 2/3 à ¾ des élèves oublient, au cours de l’été, une partie des apprentissages réalisés pendant l’année scolaire. Cet oubli équivaut à environ un mois d’apprentissages et concerne davantage les enfants issus de milieux à faibles revenus. Cathia Papi, de l'Université TÉLUQ, s'intéresse aux dispositifs visant à contrer la glissade de l'été.

Téléphone intelligent à l’école : l’interdiction n’est pas l’unique solution

Luc Bonneville et Diane Riddell, de l'Université d'Ottawa, signe ce texte dans lequel ils s'expriment sur la tendance à vouloir interdire les téléphones intelligents dans les écoles. « Dans la mesure toutefois où le téléphone intelligent est désormais un outil privilégié de socialisation et de mise en commun chez les jeunes, son interdiction devrait faire l’objet d’un débat éclairé et nuancé. La volonté de faire de nos écoles des espaces-temps complètement opaques à tout autre temps social n’est peut-être pas réaliste ni souhaitable. »