Risques et opportunités de l'intelligence artificielle pour l'enseignement

L’irruption fin novembre 2022 de ChatGPT, une intelligence artificielle (IA) générative de texte mise à disposition du grand public, a suscité de très nombreuses interrogations sur son utilisation et son impact, notamment dans le domaine de l’enseignement. Cette analyse a pour objectif de donner des informations permettant au corps enseignant du DIP de comprendre ce dont il s’agit, d’identifier les risques et les opportunités pour l’enseignement et de proposer des recommandations. Ce document, dans sa deuxième version, continuera à être mis sera mis à jour au gré de l’évolution des connaissances disponibles, de l’expérience acquise et de l’avancée de la réflexion et des progrès de l’IA. Cette analyse est complétée par le document «Quels usages concrets de ChatGPT dans l’enseignement?»
Version 2 - décembre 2024
Contexte
Fin novembre 2022, la société californienne OpenAI lance ChatGPT, un outil d'intelligence artificielle produisant un langage conversationnel particulièrement performant. ChatGPT donne l'impression d'avoir réponse à tout et de créer un véritable dialogue avec ses utilisatrices et utilisateurs, tout en fournissant des réponses structurées, cohérentes et pondérées.
Une semaine après le lancement de l'application, l'entreprise conceptrice a annoncé qu'un million de personnes l'utilisaient déjà. Deux ans plus tard, la barre des 200 millions d’utilisatrices et utilisateurs hebdomadaires a été atteint.
Lors de son lancement, on a rapidement constaté que ChatGPT faisait des erreurs, parfois grossières. Néanmoins, en deux ans, cet outil, ainsi que d’autres agents conversationnels (LLM en anglais pour Large Language Model) arrivés sur le marché (Claude, Huggingchat, etc.) ont fait des progrès spectaculaires. Il pourrait ainsi être tentant de faire confiance aux productions des IA sans vérifier. D’autant plus que les chatbots peuvent fournir des sources à l’appui de leurs discours.
Il convient de distinguer deux types de sources :
Les premières sont des sources indirectes puisqu’elles participent à la fabrication du modèle, et donc à ses capacités en termes de langue et de raisonnement. Mais le modèle n’en garde pas une trace exacte et ne peut donc pas s’y référer explicitement. François Fleuret, directeur du groupe Machine learning de l'Université de Genève, note que ChatGPT, dans sa version 3.5, « intègre 175 milliards de paramètres optimisés sur des textes de pages web universitaires, de blogs, de livres, et de Wikipédia, constituant un volume total qui équivaut à 750 000 de fois la Bible, ou 167 fois l’intégralité de la version anglaise de Wikipédia. »1
Parallèlement, les agents conversationnels peuvent effectuer des recherches en ligne, analyser les textes obtenus en réponse à ces recherches et utiliser ces informations pour rédiger une réponse. Cette seconde catégorie de sources peut être directement citée.
Depuis 2023, outre leurs dispositions à générer du langage, plusieurs modèles de LLM intègrent des capacités de « raisonnement ». Ils sont notamment de plus en plus performants pour programmer et pour la résolution de problèmes en mathématiques.
Dès lors, on ne s'étonnera pas que, comme presque tous les domaines, le monde de l'enseignement s'empare de cet outil : les élèves pour rédiger un exposé ou un travail de fin d’étude, tout comme le personnel enseignant pour préparer des séquences d'enseignement ou faire corriger des travaux.
Attention, danger ? Sans doute, oui ! Mais il est important de noter que des usages bénéfiques pour les élèves et le corps enseignant sont possibles. C'est ce que nous allons essayer de définir, selon le schéma des risques et des opportunités.
Précision préalable : l’utilisation d’un outil de langage conversationnel sous nos latitudes concerne, pour le moment du moins, avant tout l’enseignement secondaire II. Le cycle d’orientation y est confronté, mais moins fortement, et l’enseignement primaire semble pour l'heure épargné.
Risques pour l'enseignement
Les risques que nous avons relevés concernent en grande partie une mauvaise utilisation de l’outil.
► Apprendre des informations et des concepts erronés
Un LLM peut générer des phrases erronées. Ces dernières peuvent être d’ordre factuel, mais aussi conceptuel. Il importe donc les réponses fournies ne soient pas considérées comme des vérités absolues.
► Se heurter à la barrière de la prétendue expertise
Les erreurs peuvent être extrêmement difficiles à détecter pour un œil non expert. Un LLM s’exprime de manière assez péremptoire et pondérée, ce qui incite à une certaine confiance. Autrement dit, un élève apprenant une notion aura du mal à trier le vrai du faux. Il y a là un risque que l’apprentissage avec des modèles de langage se révèle contre-productif, pour cause d'acquisition de fausses connaissances.
► Inciter à la paresse intellectuelle
Les LLM peuvent fournir une réponse respectant précisément à des contraintes de longueur de textes, de niveau de vocabulaire, etc. Pour plusieurs services, il est même possible de fournir des documents sur lesquels les LLM s’appuieront pour répondre. Elles fourniront au besoin des analyses, des synthèses, des chapitrages, etc. Les LLM peuvent également adapter le niveau des explications et du langage en fonction des exigences scolaires.
Les LLM peuvent donc réaliser une grande partie des travaux à la place des élèves : cela peut aller d’un exercice de mathématiques à un travail autonome de plusieurs pages, en passant par la réalisation d’un exposé. La qualité est en général au moins aussi bonne que ce qui est attendu des élèves au Secondaire II.
Pour les élèves, la tentation est grande de faire appel à ce type d'outils s'ils ne perçoivent pas l’utilité des devoirs. On risquerait alors de se trouver face à des élèves qui n’entrainent plus de nombreuses compétences de base, préférant les déléguer à la machine.
► Les limites de la détection de recours à des IA
Les outils de détection de plagiat, tels que Compilatio, l'application officielle proposée par le DIP, permettent de détecter des textes puisés sur Internet.
En ce qui concerne les productions par des IA, des outils de détection existent, dont Magister+, un outil intégré à la dernière version de Compilatio. Mais il toutefois est important de souligner que le plagiat par recours à l’IA ne peut pas être formellement démontré, contrairement aux pratiques de plagiat plus classiques. Le rapport produit par Magister+ fournit une indication de probabilité de recours à l’IA et n’a pas valeur de preuve en soi.
Dès lors, sentir qu’un travail n’est pas une vraie production d’élève ne sera pas suffisant pour l'invalider, faute de preuve.
Précisons qu'il n'y a en revanche pas de vide juridique qui empêcherait de considérer un texte issu de ChatGPT comme du plagiat. En effet, pour ne prendre qu'un seul exemple, L'aide-mémoire de la maturité fédérale pour le travail de maturité précise que sont notamment considérés comme des plagiats « la remise de l’œuvre d’un tiers sous son propre nom ». Mais également « la reprise de passages de textes de tiers sans marques de citation. Cela inclut le téléchargement et l’utilisation de passages de textes d’Internet sans indication de la source ».
► Aggraver les inégalités
De nombreux services d’IA génératrices de textes existent aujourd’hui. Les plus performants sont actuellement payants même si des versions gratuites limitées sont également proposées.
En outre, ChatGPT pourrait accroître la fracture numérique entre celles et ceux qui font un usage conscient et pondéré des nouvelles technologies et les autres.
► Accentuer la perte de valeur de l’enseignement
Déjà passablement chahutée par une partie de la population, des parents revendicateurs et des élèves peu enclins à respecter des règles, la profession enseignante pourrait subir un nouveau coup avec l’émergence de ces nouveaux outils d’intelligence artificielle. Imaginons par exemple qu’une élève ou un de ses proches demande à ChatGPT d’évaluer un travail mal noté et que l'application propose une évaluation plus favorable que la note donnée par l’enseignante ou l’enseignant : la situation pourrait vite devenir intenable pour la profession.
►Autres risques
Même si le présent document s’intéresse aux risques pour l’enseignement, il serait difficile de ne pas évoquer encore deux risques majeurs :
les agents conversationnels ont un impact sur le climat important et croissant. Une recherche sur Perplexity consomme entre 3 et 10 fois plus d’énergie que sur Google ;
l’autre menace pour l’humanité est « existentielle » et ne vient probablement pas des IA actuelles mais celles qui surviendront. Nous ne pouvons pas garantir notre sécurité lorsque des intelligences des millions de fois supérieures à l'intelligence humaine prendront des décisions qui nous concernent.
Opportunités pour l'enseignement
Les opportunités sont à la fois d’ordre technique et éthique.
► Aider à la préparation d’une séquence d'enseignement
Idéalement, un agent conversationnel ne devrait être qu'une application parmi une palette d'outils pédagogiques. Il pourrait, par exemple, aider le corps enseignant à générer des questionnaires de compréhension d'un ouvrage lu en classe, à élaborer des exercices de mathématiques… les possibilités sont nombreuses.
► Faciliter la correction des travaux d'élèves
On peut également supposer, même s’il faudrait bénéficier de davantage de recul et d’expérimentation, qu'un LLM puisse être une aide - contrôlée - lors de la correction de travaux écrits rendus sous format numérique.
► Interroger le savoir
Vu la rapide évolution des IA depuis deux ans, il ne fait pratiquement aucun doute que l’IA fera partie de notre quotidien, sauf si un consensus mondial se dessinait pour y mettre le holà. Le rôle du corps enseignant se révélera donc d'autant plus essentiel dans l'accompagnement des élèves. Jusqu'à présent, ces derniers pouvaient trouver sur Internet les informations nécessaires à leurs travaux. Encore fallait-il qu'ils les assemblent de manière pertinente. Tout ce travail peut désormais être effectué, avec plus ou moins de pertinence, par l'IA. L'enseignante et l’enseignant ne sont déjà plus les seuls détentrices et détenteurs du savoir. Désormais guides dans la recherche et l'acquisition des connaissances des élèves, il leur faudra bientôt assumer le rôle de celui ou celle qui interroge le savoir avec eux, en les incitant à aller au-delà des réponses fournies, à faire preuve de davantage de subtilité qu’un LLM.
► Redonner de la valeur à l’enseignement
Suivant les questionnements évoqués ci-dessus, l’utilisation d'un LLM pourrait redonner de la valeur à l’enseignement. La profession enseignante ne consiste-t-elle pas en grande partie à favoriser le développement de l’esprit critique chez les élèves, à encourager leur créativité, à leur donner le plaisir d’apprendre ?
Recommandations
Le nombre et la qualité des agents conversationnels a beaucoup augmenté depuis l'émergence de ChatGPT en novembre 2022. Des solutions open source ont pénétré le marché, ainsi que des solutions prévues pour des usages spécifiques (par exemple pour la recherche sourcée). Le rythme des progrès en matière d’IA génératrice est spectaculaire depuis deux ans et pourrait continuer à nous surprendre. Il convient par conséquent de rester attentifs.
Sur la base des éléments fournis ci-dessus, le SEM émet sept recommandations :
► Former le personnel enseignant
Il est nécessaire que le corps enseignant puisse appréhender l’ensemble des outils similaires à ChatGPT. Le SEM propose des formations sous différentes modalités. Ces formations permettent à la fois décortiquer leur fonctionnement, mais également de proposer des stratégies d'utilisation.
Il pourrait être bénéfique en outre de proposer des moments de partage entre les enseignantes et les enseignants. A ce titre, le service écoles-médias a mis en place un club IA, destiné précisément à permettre l'échange d'expériences ainsi que de faire part des craintes ressenties.
► Communiquer avec les élèves
En plus des espaces de discussions au sein du corps enseignant, on pourrait mettre en place des espaces de discussions plus larges, ouverts aux élèves. Ces espaces pourraient être à la fois des lieux d’échange et de présentation de bonnes pratiques pour les élèves.
► Mettre à disposition d’outils adéquats, pour tous
Le DIP et le SEM pourraient mettre à disposition de l'ensemble de la communauté éducative des outils performants et respectueux de la vie privée.
► Définir des cas d'usage
Un outil d'intelligence artificielle produisant un langage conversationnel peut s'avérer utile pour préparer des séquences d'enseignement. Il faut bien sûr que l'enseignante ou l'enseignant garde le contrôle en définissant précisément ce qu'il attend de la machine et en validant – ou pas – le résultat. Dès lors, le SEM a commencé à élaborer une série de bonnes pratiques, comme un corpus d'aide à la création pédagogique, validées par des pairs, évitant au corps enseignant de se perdre dans les méandres de l'application. Il est important de rappeler que l’outil s’avère surtout utile pour les personnes expertes dans le domaine. (Voir document « usages »)
► Continuer de mettre à jour les règlements, chartes et directives du DIP
Les différents documents qui cadrent l’enseignement public à Genève dans le domaine numérique doivent continuer à être analysés à la lumière des changements induits, par les progrès de l'IA. Cela nécessite de préciser les usages scolaires possibles, ainsi que les interdictions, et de rappeler que l'utilisation de l'IA ne peut se faire sans le respect des règles éthiques en vigueur pour n'importe quel outil numérique.
► Enseigner l'esprit critique
L’objectif de renforcement de l’esprit critique figure à l'article 10 de la LIP : l'école doit « préparer chacun à participer à la vie sociale, culturelle, civique, politique et économique du pays, en affermissant le sens des responsabilités, la faculté de discernement et l’indépendance de jugement »2. En outre, le principe d'enseignement au numérique vise précisément à aider les élèves à acquérir le recul nécessaire face aux nouvelles technologies.
► Continuer à améliorer la capacité du DIP à analyser les enjeux de l’IA
L'amélioration continue de la capacité d'analyse de l’IA et ses usages dans l’enseignement est un enjeu central. Cela passera notamment par le renforcement de la collaboration au sein des services du DIP (DG, SEM, SRED, SG), mais également avec des partenaires externes, tels que l’Université de Genève (IUFE et TECFA). On pourrait par exemple imaginer que le colloque PraTIC se développe pour donner lieu à un observatoire de l'intelligence artificielle.
______
1. Le Temps, Opinion, François Fleuret, «Il faut que l'on parle de ChatGPT», 11 janvier 2023
2. Loi sur l’instruction publique
Voir également: Quels usages concrets de ChatGPT dans l’enseignement?
Pour partager cette page
https://edu.ge.ch/sem/node/3574
