![IA et éducation IA et éducation](/sites/default/files/styles/large/public/media/2025-02/shutterstock_2158362759.jpg?itok=j36BlYOw)
L'IA dans l'éducation : entre opportunités et défis
Entretien avec Céline Gainet
![](/sites/default/files/styles/345xauto/public/media/2024-12/celine_gainet2.png.jpg?h=d8743b70&itok=V8W4tNzG)
Céline Gainet, enseignante-chercheuse à Sorbonne Université, partage ses réflexions sur l'articulation entre l'intelligence artificielle (IA) et l'éducation. De l'école primaire à l'université, elle souligne l'importance d'une approche équilibrée et alerte sur les risques potentiels
Quels pourraient être les apports liés à l’introduction de l’IA dans le domaine de l’éducation ?
Céline Gainet : L’IA permet de traiter, en un temps court, une grande quantité d’informations que l’humain ne pourrait gérer seul. De ce point de vue, elle offre des opportunités tant pour les enseignants que pour les élèves. Elle permet par exemple de personnaliser les apprentissages grâce à des systèmes adaptatifs qui ajustent les contenus au niveau et aux besoins des élèves, tout en fournissant un suivi et une évaluation automatisés. Les enseignants bénéficient d’outils pour créer des supports interactifs, planifier leurs cours, réduire les tâches administratives et enrichir leur pédagogie. L’IA soutient également les élèves avec des tuteurs virtuels disponibles en permanence, des aides spécifiques pour les apprenants ayant des besoins particuliers (handicap, troubles d’apprentissage) et des environnements immersifs comme la réalité augmentée.
Mais ces innovations nécessitent un encadrement éthique et une formation adaptée.
Quels sont les risques d’une utilisation excessive de l'IA dans l'éducation ?
C. G. : La sensibilisation aux risques liés à ces technologies est essentielle. Beaucoup d’étudiants sont sensibles aux enjeux environnementaux, comme la question des voyages en avion. Cependant, ils ne réalisent pas toujours que l’utilisation intensive d’outils comme ChatGPT peut avoir un impact environnemental significatif, avec des émissions de CO2 non négligeables.
Plus grave encore, le danger cognitif. On ne doit pas arriver à une situation où, comme avec les GPS, les individus délèguent complètement leurs capacités cognitives à un outil. Si on cesse d’utiliser certaines zones de notre cerveau, comme celles dédiées à l’orientation spatiale, les circuits neuronaux correspondants s’affaiblissent et finissent par disparaître. Cela pose la question de savoir jusqu’où déléguer ce type de compétences à ChatGPT ?
Par ailleurs, il faut éviter de tomber dans la croyance selon laquelle ChatGPT serait systématiquement meilleur que nous. Cela devient très risqué si on ne challenge plus ce qu’il propose. D’autant plus que l’on ignore souvent l’algorithme utilisé, les sources ou la provenance des réponses et le fait que l’outil génère des hallucinations, des erreurs, et même invente des références.
Si les étudiants commencent à penser que ChatGPT fait mieux qu’eux, cela diminue leur valeur intrinsèque et les empêche de développer leur esprit critique. Certains étudiants rendent déjà des devoirs rédigés intégralement par ChatGPT. Quand je leur explique que ces réponses sont creuses et manquent de profondeur, ils me répondent : "Oui, mais c’est tellement bien écrit." C’est là que réside le défi : leur apprendre à dépasser la surface pour chercher un contenu original et pertinent. Leur expérience humaine et leur sensibilité resteront toujours supérieures à ce que peut proposer l’IA.
Apprendre à se faire confiance et accepter que ce que l’on fait soi-même puisse être suffisant, voire très bien, est essentiel.
Comment voyez-vous concrètement l'intégration de l'IA dans l'éducation ?
C. G. : Il faudrait intégrer l’apprentissage de l’IA comme on le fait pour la dissertation dans le système scolaire français. Il s’agirait, notamment de faire comprendre aux élèves et étudiants comment fonctionnent ces IA, quels sont leurs potentiels et leurs limites, et de mieux identifier les biais dans les données utilisées. Cet apprentissage contribuerait également à réduire les inégalités entre les étudiants. En effet, l'inégalité face à l’IA ne réside pas tant dans l'accès aux outils que dans la capacité à les critiquer, à se faire confiance, et à savoir les utiliser efficacement.
En formant les étudiants à utiliser l’IA comme un outil et à cultiver leur esprit critique, on déconstruit l’idée selon laquelle la machine serait une sorte de divinité omnisciente. Par exemple, écrire soi-même un texte avant de demander à ChatGPT de l’améliorer est une démarche très différente que de lui poser une question et d’attendre la réponse sans effort préalable. Il est essentiel de continuer à préserver notre créativité et notre sens critique car c'est précisément ce qui fait notre humanité.
Selon vous, l’éducation à l’IA repose sur une base fondamentale : former d’abord le cerveau.
C. G. : Absolument. Avant d’utiliser l’IA, il faut d’abord apprendre à réfléchir par soi-même, à structurer ses idées, à se poser les bonnes questions et à développer un raisonnement sans support numérique. Pour définir une problématique, par exemple, il est souvent préférable de s’éloigner des écrans afin de favoriser une pensée plus claire et plus approfondie.
Par ailleurs, pour apprendre, nous avons besoin d’observer, d’écouter, de nous poser des questions. Le cerveau a besoin de temps pour structurer sa pensée, et cela ne se fait pas à la vitesse des écrans, mais celui de la main qui écrit. De nombreuses études documentent ces mécanismes. Il est important d’y revenir.
Un jour, je me suis retrouvée à donner cours avec seulement un tableau blanc et un feutre, le vidéoprojecteur ne marchait plus. Cela a ralenti le cours car je devais tout écrire à la main. Mais ce rythme plus lent a permis aux étudiants de mieux comprendre le contenu et d’interagir davantage.
L’utilisation de l’IA soulève aussi la question de l’addiction aux écrans, n'est-ce pas ?
Oui, de nombreux pédiatres et psychologues sont débordés par des consultations sur ce sujet, avec des délais d’attente de parfois un an. Cette addiction aux écrans touche des besoins fondamentaux comme le sommeil. Cela affecte le fonctionnement du cerveau et crée un cercle vicieux : fatigué, on a plus de mal à se concentrer, à réfléchir et on se tourne encore davantage vers des outils comme ChatGPT pour compenser notre difficulté à structurer notre pensée.
C’est pourquoi il est essentiel de repousser l’introduction des écrans autant que possible, surtout chez les jeunes. Dans le cadre de l’éducation numérique raisonnée, il est recommandé de ne pas donner accès au portable avant l’âge de 15 ans afin de laisser le cerveau se développer pleinement et permettre aux enfants d’apprendre à raisonner par eux-mêmes. Mais même sans téléphone, les enfants sont déjà exposés à l’IA de manière indirecte, par exemple, à travers le comportement de leurs parents. Cette addiction pose un défi pour nous, adultes, car beaucoup d’entre nous avons des comportements addictifs avec nos portables, et nous les transmettons inconsciemment à nos enfants.
En tant qu’enseignants vous êtes aussi challengés par le numérique ?
C. G. : Oui, les écrans et des outils comme ChatGPT captent l’attention par leur rapidité et leur aspect ludique. Les enfants – et même les adultes – s’habituent au "zapping" constant, alors que les cours nécessitent une longue concentration. Une petite vidéo avec des effets spéciaux est toujours plus attrayante qu’un cours classique.
Plus globalement, je pense qu’en tant qu’enseignants, nous devons nous former à l’IA pour accompagner au mieux les jeunes sur cette évolution et parvenir à intégrer l’IA dans nos pratiques tout en cultivant ce recul critique indispensable.