La vidéosurveillance algorithmique
  • Recherche

La vidéosurveillance algorithmique : entre promesses sécuritaires et risques pour les libertés

Dans un contexte où la sécurité est au cœur des préoccupations, la vidéosurveillance algorithmique (VSA) apparaît comme une solution technologique prometteuse. Cependant, cette avancée soulève de nombreuses questions éthiques et sociétales. Retour sur ses promesses et ses limites avec Adrien Tallent, doctorant en philosophie politique.

 

Une surveillance augmentée par l'intelligence artificielle

Autorisée à titre expérimental en France pour sécuriser les grands événements des Jeux olympiques et paralympiques de Paris, la VSA vise à intégrer des algorithmes d’analyse d’images dans les systèmes de vidéosurveillance actuels. L’objectif ? Augmenter la capacité de traitement des images, permettant de surveiller un nombre croissant de caméras dans des espaces publics.

« L'argument en faveur de la VSA est qu’elle permettrait de détecter automatiquement des comportements, des objets suspects ou des mouvements de foule, sans pour autant avoir recours à la surveillance biométrique, qui repose sur des données sensibles comme la reconnaissance faciale, aujourd’hui interdite par la loi, expose Adrien Tallent. Cependant, selon certains critiques, la VSA serait une forme de surveillance biométrique déguisée car une démarche ou des vêtements pourraient suffire à identifier quelqu’un de manière indirecte ».

Les promesses d'une sécurité "objective"

L'autre argument avancé en faveur de la VSA est son apparente objectivité. « On estime que la machine ne discrimine pas, qu'elle se contente d'analyser des images de manière neutre et de signaler les comportements ou événements suspects », rapporte Adrien Tallent.

Pour le chercheur, ce point de vue repose sur le mythe de la neutralité technologique : « L'idée courante est que la technologie en elle-même est neutre, et seul dépend l’usage que l’on en fait. Un couteau peut servir à couper des tomates ou à blesser quelqu'un. De la même manière, on pourrait dire que la vidéosurveillance peut renforcer la démocratie ou, à l'inverse, être utilisée pour contrôler la population. » Mais, pour le doctorant, la technologie n’est en réalité jamais vraiment neutre. Elle est influencée dès sa conception par des valeurs, des biais, des intérêts financiers, géopolitiques ou économiques. « Les décisions d’investissement influencent la direction dans laquelle la technologie évolue, ajoute-t-il, et cela a des répercussions sur la société. Par exemple, développer l’intelligence artificielle pour des usages militaires plutôt que pour des usages démocratiques n’est pas un choix neutre. »

Les biais cachés des algorithmes

Pour Adrien Tallent, cette perception d'objectivité est également renforcée par notre confiance historique dans la rationalité mathématique, héritée des Lumières et de la révolution scientifique. Cependant, cette confiance peut s'avérer trompeuse. Malgré leur apparente neutralité, les algorithmes de VSA peuvent reproduire et amplifier des biais existants. « Les algorithmes, pour fonctionner, doivent être entraînés à partir de grandes quantités de données à partir desquelles ils apprennent à repérer des comportements suspects ou des objets anormaux. [...] Le problème, c'est que repérer ce qui est 'anormal' implique de définir une norme. C'est là que commencent les biais », explique Adrien Tallent.

Ces biais peuvent être raciaux, genrés ou liés à d'autres formes de discrimination présentes dans les données d'entraînement. « Naturellement, ces biais se retrouvent dans les algorithmes. Par conséquent, ces machines peuvent disproportionnellement identifier les comportements d'une minorité comme étant 'anormaux' simplement parce qu'ils dévient de la norme majoritaire », ajoute-t-il. Ce qui peut entraîner une automatisation des discriminations.

Opacité des systèmes de surveillance et enjeux démocratiques

Dans un contexte où l'insécurité est souvent mise en avant, la VSA apparaît aux yeux des décideurs publics comme une solution pour garantir la sécurité de manière plus discrète, sans mobiliser d'importantes ressources humaines. « Cela permet aussi d'éviter qu'un événement suspect échappe à la vigilance d'un agent humain qui passe des heures à surveiller des écrans. Certes cela peut aider le surveillant, mais dans le même temps cela justifie son utilisation sans remettre en cause la prolifération des caméras. », ajoute le doctorant.

Cette technologie soulève également la question de la transparence : « Ces systèmes sont opaques, et on ne sait pas toujours qui les produit, comment ils sont conçus, et selon quelles règles », souligne le philosophe. Cette opacité pose des questions cruciales sur la responsabilité de ces systèmes, mais aussi sur nos principes démocratiques. « Comment contester une décision basée sur un algorithme dont le fonctionnement est obscur ? Cela menace les principes mêmes de transparence et de justice sur lesquels les sociétés démocratiques sont fondées », rappelle Adrien Tallent.

La surveillance "douce" et ses dangers pour les libertés individuelles

La VSA engendre par ailleurs des inquiétudes quant à son impact sur les libertés individuelles et la vie privée. « Le fait d'être surveillé en permanence réduit la liberté, même sans en avoir nécessairement conscience. », explique-t-il. Elle peut conduire à une forme d'autocensure, même inconsciente, modifiant subtilement nos comportements dans l'espace public.

En cela, la VSA s'inscrit dans une tendance plus large : celle de la surveillance "douce. A l’ère du numérique, la surveillance est devenue plus diffuse et moins visible. Sur Internet, chaque clic, chaque achat, chaque vidéo regardée sont enregistrés, pour ensuite influencer ce qui nous est montré ou recommandé. « Cette 'surveillance douce' est pernicieuse, met en garde Adrien Tallent. Elle peut conduire à une forme de contrôle invisible mais puissant, où nos comportements sont influencés sans que nous en ayons pleinement conscience. »

Vers une normalisation de la surveillance ?

Bien que présentée comme temporaire, l’expérimentation de la VSA lors des Jeux Olympiques et paralympiques de Paris pourrait s’installer durablement dans le paysage français. « C'est un phénomène assez commun avec les lois d'état d'urgence : une mesure temporaire finit par être adoptée sur le long terme », rappelle Adrien Tallent. Une fois ces dispositifs en place, il devient politiquement difficile de les retirer, selon le chercheur. Cette tendance s’accompagne d’un effet d’accoutumance. Les citoyens, habitués à la présence de ces dispositifs, finissent par accepter ces mesures sans interroger leurs impacts sur les libertés individuelles. « Il y a une sorte de banalisation progressive, où la surveillance devient une composante normale de l’espace public, au point de ne plus être perçue comme problématique », explique le doctorant.

Pour Adrien Tallent, l’argument principal avancé pour justifier cette pérennisation repose sur l’idée que « la sécurité est la première des libertés ». Cette phrase, popularisée par des personnalités politiques de droite, est, selon lui, devenue un mantra pour justifier des mesures sécuritaires. « Ce discours alimente un cercle vicieux. À force de jouer sur le sentiment d'insécurité, les mesures de surveillance finissent par sembler normales, voire nécessaires, même si les statistiques ne corroborent pas toujours ce ressenti », souligne-t-il.

Les technopolis

La VSA s’intègre également dans un mouvement global connu sous le nom de "technopolis" qui met la technologie au service de l’optimisation de la sécurité et de la gestion des villes. Cette quête d’efficacité souvent justifiée par des bénéfices écologiques ou financiers, peut aussi, selon Adrien Tallent, se transformer en contrôle généralisé : « Le besoin croissant de données pour prendre des décisions automatisées entraîne une collecte toujours plus massive d'informations. Plus on cherche à contrôler et à optimiser, plus on dépend de données. Et plus on collecte de données, moins l’individu peut échapper à cette surveillance », estime le chercheur.

Pour Adrien Tallent, cette automatisation croissante des décisions grâce aux technologies numériques soulève des questions fondamentales sur le contrat social et le rôle de la démocratie. « Plus on délègue les décisions à des systèmes algorithmiques, plus le champ du débat politique et de la prise de décision démocratique se réduit », explique-t-il. Dans un scénario extrême où la collecte de données couvrirait l’ensemble des comportements, opinions et pensées des individus, il serait tentant pour une organisation de prétendre connaître la manière optimale de gouverner. « Mais une telle centralisation des données et des décisions met en péril le libre arbitre, la démocratie, et même l’éthique car elle limite profondément la place laissée à la liberté individuelle. C’est pourquoi il est essentiel que la société civile s’empare de ces questions », conclut le philosophe.
 

Par Justine Mathieu

 

Adrien Tallent, doctorant engagé dans l’étude des transformations numériques

Après une double formation en école de commerce et en philosophie, Adrien Tallent a trouvé sa vocation dans la recherche. Actuellement en thèse CIFRE, il collabore avec SNCF Réseau pour étudier l’impact des technologies numériques sur la société et la gouvernance.

Son travail explore la collecte et l’analyse des données par l’intelligence artificielle, ainsi que leurs conséquences sur la démocratie et le contrat social. Intéressé par l’histoire philosophique de la rationalité, il analyse comment les outils numériques transforment notre manière de gouverner.

Adrien Tallent