IA, langage et éthique avec Hal Daumé III
Le professeur Hal Daumé III est chercheur invité à SCAI et à l’Institut des systèmes intelligents et de robotique – ISIR (Sorbonne Université/CNRS/INSERM), ainsi que professeur en informatique et sciences du langage à l'université du Maryland (Etats-Unis). Il nous explique les subtilités de l'interaction humain-IA, les responsabilités éthiques des scientifiques, et comment l'intelligence artificielle peut enrichir l'expérience humaine.
Qu'est-ce qui vous amène au SCAI et à l'ISIR de Sorbonne Université ?
Hal Daumé : J’enseigne et je fais de la recherche depuis une quinzaine d’années à l'université du Maryland. Je n'avais jamais pris de congé sabbatique jusqu’alors. J'ai vu cela comme une occasion unique de m'éloigner de mon environnement habituel, de m'immerger dans un cadre complètement différent et de donner une nouvelle perspective à mon travail. Je savais que je voulais partir à l'étranger, et je connais François Yvon, chercheur à l'ISIR depuis une vingtaine d'années. Je l'ai alors contacté, et tout s'est mis en place.
C'est aussi un excellent choix sur le plan professionnel, car plusieurs projets de recherche à Sorbonne Université font écho aux sujets sur lesquels je travaille, en particulier au traitement du langage naturel (NLP) et à l’interaction humain-IA. Travailler ici ne ressemble pas directement à ce que je fais au Maryland ; cela m'apporte de nouveaux défis et des connexions enrichissantes.
L'IA interactive joue un rôle majeur dans votre travail. Pourquoi est-ce important ?
HD : : Il y a cinq ans, expliquer l'importance de l'interaction humaine avec l'IA était un défi. Je faisais des présentations et passais du temps à justifier l'intérêt de l'interaction humain-IA. Aujourd'hui, avec l'arrivée d'outils comme ChatGPT, la nécessité d'étudier ce domaine est évidente. Il est clair que l'IA continuera d'affecter davantage d'aspects de la vie quotidienne et professionnelle. Je m'intéresse particulièrement à la manière dont l'IA peut apprendre naturellement des interactions.
Prenons un exemple : un système de traduction simultanée devrait être capable d'apprendre de ses erreurs grâce aux interactions. Si la traduction est confuse, l'IA devrait percevoir que quelque chose ne va pas par la réaction de l'utilisateur – tout comme nous le faisons dans une conversation naturelle. Or, de nombreux systèmes ne tirent pas d'enseignements de ces réponses. Ils facilitent simplement la communication sans s'améliorer. L'idée d'une IA adaptative et réactive me passionne : c'est là que je vois une grande opportunité.
Vous avez mentionné que l'interaction naturelle est un aspect clé de vos recherches. À quoi cela ressemble-t-il avec l'IA ?
HD : Il est essentiel de comprendre et d'intégrer des indices subtils de « succès » et d'« échec » dans les systèmes d'IA, surtout quand un retour explicite n'est pas possible. En tant qu'êtres humains, nous ne notons pas explicitement la conversation que nous venons d'avoir avec quelqu'un. Nous pouvons exprimer notre insatisfaction sans mots – dans une conversation naturelle, si je vous vois l'air confus, je sais que je dois m'arrêter et clarifier. Il serait formidable que l'IA apprenne de ces petits indices implicites, plutôt que de s'améliorer uniquement à partir d'actions évidentes comme un pouce levé ou baissé.
Une grande partie de mes recherches se concentre sur le langage, car c'est le moyen le plus intuitif d'interagir pour les humains. Ce qui me fascine, c'est que le langage permet d'ajuster le niveau de détail. Par exemple, si je vous apprends à faire une sauce béchamel, je pourrais simplement dire « Faites une béchamel » si vous savez déjà comment faire. Sinon, je vous guiderai pas à pas : « Faites fondre le beurre, ajoutez la farine, incorporez le lait… ». Ce genre de nuances est naturel pour nous, mais pourrait aussi rendre l'IA plus flexible. Si l'IA peut s'adapter au niveau de connaissance de l'utilisateur et interagir naturellement, cela rendrait les échanges plus fluides.
Au-delà des aspects techniques, je sais que vous vous intéressez aussi aux impacts sociétaux de l'IA. Pouvez-vous nous en dire plus ?
HD : Bien sûr. Je trouve que beaucoup de discours publics sur l'IA sont très extrêmes : soit l'IA va tous nous sauver, soit elle va tous nous détruire ! Je pense que ces points de vue sont caricaturaux. Si je ne croyais pas au potentiel positif de l'IA, je ne travaillerais pas dans ce domaine.
D'un autre côté, je reconnais les risques. Il y a une dizaine d'années, j'ai commencé à travailler sur ce qu'on pourrait appeler « L'éthique de l'IA », même si cela ne portait pas ce nom à l'époque. Il est devenu clair que l'IA ne resterait pas confinée à des systèmes isolés ; elle allait être appliquée à des situations complexes du monde réel, ce qui soulevait de nouveaux défis. Par exemple, les systèmes d'IA interagissent maintenant avec les humains d'une manière qui peut renforcer les biais sociétaux, en particulier dans les applications de langage. Mes premiers travaux en éthique de l'IA portaient sur l'analyse de ces biais et la manière dont ils se manifestent dans le langage. Je considère qu'il est de notre responsabilité en tant que scientifiques d'anticiper ces questions.
Pourriez-vous donner un exemple de la façon dont vous abordez ces préoccupations éthiques dans vos projets ?
HD : Un exemple est notre travail sur la technologie de la langue des signes américaine (ASL), où les considérations éthiques, notamment en matière de données, sont essentielles. L'ASL est unique, car c'est une langue visuelle, et développer une IA qui peut l'interpréter ou la générer est complexe. Cela nécessite de grandes quantités de données représentatives.
Malheureusement, il est difficile de les collecter de manière respectueuse et précise. Nous avons abordé cela en recueillant des vidéos de manière participative avec un consentement explicite, en veillant à protéger la vie privée des participants. Ce projet est important non seulement pour la technologie elle-même, mais aussi pour l'approche qu'il représente. Il faut répondre aux besoins réels des communautés avec précaution, en reconnaissant que même des améliorations modestes – comme ajuster les paramètres de visioconférence pour mettre en avant les utilisateurs d'ASL – peuvent avoir un impact significatif.
À mesure que l'IA se développe, la question de la réglementation devient de plus en plus présente. Quelle est votre position sur la régulation de l'IA ? Qui est responsable de veiller à ce que l'IA reste éthique ?
HD : C’est une discussion cruciale, et je pense qu’il y a de solides arguments en faveur de la réglementation de l'IA, mais c’est complexe. Aux États-Unis, d'où je viens, le gouvernement fédéral est encore loin de mettre en œuvre une réglementation, bien que les États progressent progressivement. L'AI Act de l'UE, en revanche, est prometteur, même s'il est parfois restrictif. À mon avis, la protection des données devrait être au cœur de la régulation de l'IA, car de nombreux problèmes proviennent d'une mauvaise utilisation des données, plutôt que de l'IA elle-même. Certains États américains s'attaquent déjà à ce sujet en réglementant les systèmes de prise de décision automatisée, ce qui est plus facile à définir que l'IA dans son ensemble. Beaucoup de préjudices découlent de l'utilisation des données de manière imprévue, donc se concentrer sur la réglementation de l'utilisation des données est un pas dans la bonne direction.
Comment pensez-vous que l'IA affectera le monde du travail ?
HD : Je pense qu'il s'agit moins de remplacer des emplois que de transformer certaines tâches. Plutôt que d'éliminer des emplois, l'IA pourrait automatiser certains aspects d'un poste. Par exemple, les taxis autonomes à Singapour nécessitent encore des tâches comme le nettoyage et le ravitaillement, ce qui crée de nouveaux rôles. Ce qui m'inquiète, c'est que l'on se concentre trop sur l'efficacité au détriment de la satisfaction au travail. L'efficacité est une priorité pour les entreprises, mais selon moi, elle ne devrait pas être la seule. Une étude intéressante sur GitHub Copilot a montré que l'IA augmentait l'efficacité, mais rendait aussi les développeurs plus satisfaits en automatisant les tâches ennuyeuses. C'est là que l'IA pourrait être bénéfique, mais je crains que nous ne priorisions l'efficacité aux dépens de l'autonomie et de l'épanouissement humains.
Qu'espérez-vous que votre travail apporte à la société ?
HD : Mon objectif est de concevoir des outils d'IA qui privilégient l'expérience plutôt que l'efficacité. Par exemple, un projet que j'ai mené avec Reddit portait sur le soutien aux modérateurs de contenu, qui sont des bénévoles. Ils ne cherchent pas à aller vite, mais sont investis dans la construction de communautés. Travailler avec ces bénévoles nous a poussés à privilégier l'amélioration de l'expérience plutôt que la rapidité. Je pense que ce modèle – se concentrer sur les besoins des utilisateurs au lieu de la productivité – pourrait être précieux dans la recherche en IA, en particulier dans le milieu académique.
Je suis optimiste quant à la possibilité de façonner l'IA pour que cela respecte le choix et l'autonomie des êtres humains, même si cela nécessite de nouvelles façons de travailler et de collaborer. Je suis heureux de voir que ce débat s'élargit au-delà des cercles technologiques. Il est essentiel que les chercheuses et chercheurs, les utilisatrices et les utilisateurs, et le public de manière générale participent à cette aventure.