L’arrivée des IA génératives, accessibles au grand public dès fin 2022, en est un très bon exemple. Les IA génératives, comme ChatGPT, Midjourney ou Sora, sont des IA capables de générer du texte, des images ou des vidéos grâce à une instruction textuelle, plus connue sous le nom de prompt en anglais.
Aptes à répondre aux questions de devoirs scolaires, ces récentes IA remettent en question les méthodes d’évaluation des connaissances et poussent les enseignants et enseignantes à intégrer ces nouveaux outils dans leurs pratiques pédagogiques. Alors que ces IA, initialement conçues sans visée éducative, ont véritablement bouleversé le domaine de l’éducation, qu’en est-il des IA spécifiquement développées pour améliorer les processus d’apprentissage et d’enseignement ?
Objectifs des IA en éducation
Les IA spécifiquement conçues pour être au service des élèves, des enseignants ou enseignantes, ou bien des institutions présentent différents niveaux de maturité et de déploiement. Avec l’objectif de soutenir l’apprentissage et à la lutte contre l’échec scolaire, elles sont principalement destinées à personnaliser des cours déjà structurés. Leur promesse est de s’adapter au rythme et aux besoins individuels de chacun. La difficulté doit être évolutive, sans être trop élevée pour éviter le décrochage, ni trop faible pour ne pas tomber dans l’ennui.
Ces IA sont généralement constituées de trois composantes fondamentales : une modélisation du domaine d’étude, une modélisation des apprenants et apprenantes ainsi qu’une modélisation de l’approche pédagogique.
Ces trois composantes permettent aux systèmes de présenter des contenus ou exercices différents selon les interactions avec les apprenants et apprenantes, tout en respectant une certaine approche pédagogique préalablement implémentée.
Exemples d’IA pensées pour l’éducation
Des résultats de recherche dans le domaine de l’éducation commencent à être déployés dans des systèmes utilisés en France. Par exemple, depuis 2019, la plate-forme d’évaluation et de certification des compétences numériques, PIX, propose un algorithme adaptatif disponible en open source et issu d’un travail de recherche. Ses utilisateurs et utilisatrices peuvent s’entraîner avec des questions et exercices dont la difficulté s’ajuste en fonction des réponses puis demander la certification de compétences telles que la maîtrise des outils informatiques, la sécurité en ligne, la programmation, la création de contenu numérique, etc.
Par ailleurs, de nombreuses entreprises de la EdTech se positionnent comme utilisant de l’IA. Six d’entre elles ont notamment été lauréates du Partenariat d’Innovation intelligence artificielle (P2IA), impulsé par le ministère de l’Éducation nationale et de la Jeunesse et ayant pour objectif de mettre à disposition des enseignants du cycle 2 (CP, CE1, CE2) des assistants pédagogiques à base d’IA, les aidant à personnaliser des apprentissages.
Le P2IA soutient en particulier les apprentissages fondamentaux en français et mathématiques, et les outils développés par ces entreprises, dont des systèmes de recommandation d’exercices et des tableaux de bord, sont utilisés à l’échelle nationale.
D’autres exemples d’IA pour l’éducation sont ceux des systèmes de prédiction anticipée du décrochage. Profitables pour les cours hybrides (c’est-à-dire en partie en classe et en partie en ligne) et très utilisés dans les MOOC (massive open online courses), ces systèmes visent à fournir le plus rapidement possible une intervention destinée à contrer le décrochage. Cela peut être sous forme de feedbacks automatiques comme des messages personnalisés ou bien sous forme d’alerte à destination du personnel enseignant, chargé d’intervenir auprès de l’élève en question. Ces systèmes sont davantage répandus aux États-Unis.
Challenges actuels et régulation des IA
Hors de ces exemples, l’IA pour l’éducation a encore du mal à s’implanter dans les usages courants. « Le fait qu’un outil numérique existe et soit potentiellement efficace, voire que les salles de classe soient équipées de cet outil, ne suffit pas pour que les enseignants et les élèves l’utilisent », déclare André Tricot, professeur de psychologie cognitive à l’université Paul Valéry Montpellier 3.
Pour que les enseignants, les enseignantes et les élèves puissent faire confiance à ces technologies et ainsi les adopter, il est primordial que le fonctionnement des algorithmes employés soient compréhensibles ou co-construits et les systèmes transparents. Comprendre comment ces outils influencent l’expérience d’apprentissage et l’acquisition des connaissances est nécessaire.
Aussi, l’IA en éducation peut se heurter à des difficultés quant à la collecte et l’intégration des données nécessaires à son fonctionnement. Dans un système de recommandation, par exemple, il faut attendre plusieurs recommandations pour que celles-ci soient fondées à partir du niveau réel de l’élève. Avant cela, le système doit être renseigné avec un niveau supposé, mais si celui-ci est erroné, l’élève risque de subir une expérience dégradée (trop difficile avec risque de décrochage, trop simple avec risque d’ennui). C’est ce qu’on appelle le problème de « démarrage à froid » de ces systèmes, dû au manque de données initiales ou de l’absence d’interaction antérieure.
Ces obstacles, parmi d’autres, ralentissent le développement et l’adoption de ces systèmes à grande échelle. Par ailleurs, la législation sur l’IA au niveau européen, l’IA-act, en vigueur à partir de mai 2024 et donnant un cadre légal commun pour gérer les risques liés à l’IA, classe les IA en éducation comme présentant un risque élevé.
Impact de l’IA sur l’apprentissage
Au-delà des aspects liés à leur implémentation pratique, il est légitime de se demander si ces systèmes ont un réel impact positif sur l’apprentissage. Peu d’études ont été menées sur la question et celles dont on dispose concernent des contextes éducatifs précis, avec des cohortes d’élèves précises. Ces expériences sont très coûteuses à mettre en place. Il est donc, pour l’heure, impossible de généraliser leurs résultats optimistes à l’ensemble des outils d’IA en éducation.
De plus, l’évaluation des discriminations potentiellement présentes dans ces systèmes est un sujet d’ampleur grandissante. Depuis 2016, de nombreux scandales éthiques ont éclaté à propos d’IA utilisée en justice (comme COMPAS), pour de la reconnaissance faciale (par exemple, Microsoft, Google), ou encore pour du recrutement (notamment Amazon). Ces systèmes ont présenté une tendance à pénaliser les personnes noires et les femmes dans leur traitement.
En effet, les données sont collectées à partir d’un contexte réel, lui-même contenant des discriminations historiques – des biais de genre, d’origine, de milieu social. Par conséquent, elles contiennent aussi, souvent de manière sous-jacente, des schémas de discrimination. Par exemple, si un système d’IA, accessible en ligne, s’appuie sur des données collectées dans un contexte où des élèves de milieux défavorisés ont historiquement obtenu des résultats moins bons en raison d’un accès limité à Internet, alors le système pourrait prédire de manière incorrecte que les élèves issus de ces milieux ont moins de chances de réussir, indépendamment de leurs capacités réelles.
De plus, les systèmes d’IA reposent sur des modélisations qui sont, par définition, des représentations simplifiées. Des biais dans ces modélisations peuvent produire également des conséquences néfastes pour des élèves présentant certaines caractéristiques. Supposons qu’un système ne prenne en compte que la vitesse de réponse des élèves pour lui recommander des exercices dont la difficulté s’adapte. Un élève ayant un handicap pourrait mettre un peu plus de temps à répondre aux exercices tout en répondant correctement à tous. Cependant, le système ne lui proposera donc que des exercices trop simples, dégradant l’expérience d’apprentissage de cette personne.
C’est pourquoi il est également crucial d’évaluer les systèmes d’IA sous l’angle des biais algorithmiques et des discriminations reproduites ou générées, afin de garantir un traitement juste et inclusif.
Si ces technologies disposent d’un potentiel pour assister les enseignants et enseignantes, il est clair que des obstacles significatifs subsistent. Cependant, en veillant à un développement éthique et inclusif de ces systèmes, il est possible que ceux-ci soient de plus en plus présents dans la vie scolaire des élèves.
Mélina Verger, Doctorante en informatique, Sorbonne Université
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.