
IA : quels risques pour nos démocraties ?
Face aux risques que l’IA fait peser sur nos démocraties, l’Union européenne interdit certaines pratiques (techniques subliminales, évaluation de la solvabilité des clients des banques, identification biométrique) en vue de protéger nos libertés individuelles. Mais il est indispensable de se pencher sur les dangers liés à l’utilisation de l’IA par les grandes plates-formes numériques. L’impact de l’IA est massif sur la qualité de l’information partagée par les citoyens, et, par là même, sur la possibilité de fonder un espace de délibération démocratique.
L’IA, le web, les réseaux sociaux et plus généralement les technologies du numérique transforment la société, pour le meilleur, mais aussi pour le pire. Elles facilitent des activités quotidiennes pour la recherche d’information ou la rédaction de textes, automatisent des tâches pénibles ou fastidieuses. Elles contribuent également au progrès des connaissances dans les sciences, la santé ou le spatial. Du côté des risques, on peut redouter la disparition de certains emplois et un accroissement du chômage. Mais qu’en est-il des menaces relatives à nos libertés et à nos démocraties et comment s’en prémunir ?
La règlementation au secours des libertés individuelles
Depuis le 2 février 2024, le premier volet du règlement européen sur l’intelligence artificielle, ou « IA Act » a créé une régulation en vue de protéger nos libertés fondamentales.
L’Union européenne interdit désormais trois types de pratiques de l’IA :
-
les techniques subliminales,
-
le crédit social (qui évalue la solvabilité des particuliers pour l’octroi de crédits),
-
l’identification en temps réel de techniques biométriques.
L’IA Act vient en complément d’autres règlements qui visent à protéger les individus contre les abus des États ou des grandes entreprises, tout en promouvant une industrie européenne vigoureuse, souveraine et indépendante. Reste que l’on peut s’étonner du caractère fictif de certaines interdictions potentielles de l’intelligence artificielle. À ce titre, la première d’entre elles, qui porte sur l’emploi de techniques subliminales, est révélatrice.
Rappelons que le terme subliminal a été introduit en 1957 par un publiciste américain, James Vicary, qui prétendait qu’en insérant, dans un film, tous les cinquantièmes de seconde, des images contenant des messages, ceux-ci influençaient nos comportements sans que nous en soyons conscients. Or, rien n’a mis en évidence les effets tangibles de manipulations subliminales, sauf de façon très marginale. Il n’empêche que les institutions européennes, très soucieuses de l’autonomie des personnes, s’en préoccupent déjà, ce qui peut apparaît comme excessif.
Infox et citoyenneté
Au-delà de la protection des libertés fondamentales – liberté d’opinion et d’expression, liberté de pensée et de religion, liberté de réunion, liberté de mouvement – il importe de souligner que la démocratie réside avant tout dans la capacité qu’ont les individus à prendre part à la vie politique, à délibérer, à échanger librement dans l’espace public. Or, l’IA, en contribuant à la fabrication et à la dissémination sélective de fausses informations, nuit à cette délibération collective.
La diffusion de ce que l’on appelle les « fake news » ou les infox, interfère avec les processus électoraux en introduisant la confusion dans les esprits, ce qui déstabilise les institutions démocratiques. Et, l’IA contribue à cette déstabilisation de trois façons :
-
en produisant d’immenses masses d’infox,
-
en créant des images, des sons et des vidéos qui font illusion,
-
en procédant à un profilage des individus et à une diffusion ciblée des informations sur des segments spécifiques de la population.
Production et diffusion massives
Libelles, canards, propagande, désinformation : la fabrication d’avis trompeurs n’est pas nouvelle. Pourtant, le poids qu’ils ont acquis avec l’IA s’accroît démesurément. Dans le passé, écrire un texte convaincant prenait du temps. Et, dessiner une caricature plus encore. Quant à la diffuser, cela demandait soit des messagers subtils chargés d’instiller le poison, soit des infrastructures coûteuses, organes de presse, radio, télévision, etc. Désormais, n’importe qui, avec des techniques d’IA génératives, produit à volonté textes, images et sons et les transmet librement au monde entier sur le web, quasiment gratuitement, sans demander aucune permission.
Génération d’image et de son
Ces contenus produits par les techniques d’IA ressemblent à s’y méprendre à des photographies ou des vidéos. Ils se présentent alors, pour reprendre les catégories sémiotiques introduites par Charles Sanders Peirce (1839-1914) au tournant du XIXe et du XXe siècle, comme des « insignes », autrement dit comme des signes pointés sur les réalités qu’ils désigneraient.
Ils donnent l’impression d’en être la trace, au même titre que les photographies s’imprègnent de la trace lumineuse des choses. Mais là où les photographies attestent bien des choses qu’elles donnent à voir, les images produites par l’IA générative visent à contrefaire la réalité, ce qui leur confère un caractère particulièrement pernicieux.
Profilage et ciblage
Enfin, par le profilage des individus au moyen de techniques d’apprentissage machine, puis par le criblage de la population, les réseaux sociaux envoient à chacun des segments du public les informations contrefaites les plus susceptibles de faire réagir afin d’accroître la probabilité de retransmission et, par là, la circulation d’information.
Ainsi, lors de la dernière campagne présidentielle aux États-Unis, de fausses vidéos montrant Kamala Haris promouvant les positions de Benyamin Nétanyahou étaient envoyées à des électeurs démocrates alors que d’autres vidéos la montrant au côté des Palestiniens étaient adressées à des milieux juifs et conservateurs, ce qui suscita beaucoup d’émois et d’échanges. C’est ce que Bruno Patino appelle, de façon imagée, la « civilisation des poissons rouges » : nous vivons chacun au sein d’un bocal informationnel très confortable, où nous échangeons avec d’autres qui reçoivent les mêmes informations que nous et partagent peu ou prou, les mêmes idées.
Fin de la citoyenneté ?
La conséquence est que la société se fragmente de plus en plus, que l’espace public disparaît progressivement puisque les différentes composantes de la population ne partagent plus les mêmes informations. Dès lors, la délibération collective ne peut avoir lieu, puisque l’on ne s’entend plus sur les faits. L’exercice de la citoyenneté, au sens où des philosophes comme Hannah Arendt l’entendent, à savoir la participation d’individus libres au débat collectif par l’échange d’arguments devient de plus en plus difficile. In fine, l’IA, mis à la disposition des grands acteurs du numérique, crée un risque de disparition de la citoyenneté.
Est-ce, pour autant, une fatalité ? L’IA bien utilisée pourrait tout aussi bien contribuer à restituer au citoyen son pouvoir de contrôle sur les informations qui lui proviennent et donc à reconstruire un espace de délibérations collectif où des « hommes de bonne volonté » pourraient œuvrer.
Ainsi, on peut essayer, sur un sujet donné, de repérer grâce à l’IA les différentes informations qui circulent et de les confronter, comme le fait un journaliste qui doit, sur chaque sujet, rechercher les sources.
En effet, l’IA ne sert pas uniquement à générer automatiquement des textes : il calcule la proximité d’emploi de chaque mot (ou de chaque partie de mot, ce que l’on appelle les tokens) avec d’autres. Ceci permet de rapprocher un mot de ses synonymes, un paragraphe d’un second qui a la même signification, afin de savoir ce qui se dit sur une thématique donnée. Il est dès lors loisible de confronter les différents points, en repérant les oppositions.
En somme, bien utilisées, les techniques d’IA permettront peut-être à chacun de prendre sa part dans la délibération collective, sans se laisser abuser, et donc d’exercer pleinement sa citoyenneté. Il suffit d’en avoir la volonté et de ne pas assimiler les idéaux démocratiques aux seules libertés fondamentales.
À cette fin, la législation européenne ne doit pas se contenter pas de protéger les libertés fondamentales. Elle doit établir les conditions d’exercice de la citoyenneté dans un espace public commun, ce qui passe par la lutte contre les infox. La vocation du DSA (« Digital Services Act ») aurait dû être de pourvoir à ce besoin. Ce dernier se contente de dénoncer les infractions au droit commun (par exemple, les discours haineux) sur le cyberespace, mais cela reste largement insuffisant. Il conviendrait d’aller plus loin de façon à lutter contre le mensonge, tout en protégeant la liberté d’expression.
Jean-Gabriel Ganascia, Professeur, Intelligence Artificielle, Sciences Cognitives, Sorbonne Université
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.