Les enjeux éthiques des véhicules autonomes
Entretien avec Raja Chatila.
Le développement de véhicules à conduite automatisée pose de nombreuses questions non seulement sur la sûreté de leur fonctionnement et la sécurité de leurs passagers, mais aussi sur les décisions qu’ils peuvent être amenés à prendre lors d’accidents imminents. Professeur émérite en robotique à Sorbonne Université et membre du Comité national pilote d'éthique du numérique, Raja Chatila nous apporte son éclairage sur les enjeux que soulèvent ces modes de déplacement du futur.
En collaboration avec Nelson de Moura, Katherine Evans et Stéphane Chauvier, vous travaillez actuellement sur la prise de décision éthique des véhicules à conduite automatisée (VCA). Racontez-nous l’origine de ce projet ?
Raja Chatila : Il y a quatre ans, l’institut Vedecom, qui travaille sur les mobilités durables, m’a contacté pour initier une coopération sur ce sujet. Il s’agissait de faire collaborer autour de cette question d’éthique des spécialistes en intelligence artificielle (IA) et des philosophes. La porteuse du projet, Ebru Dogan, psychologue et chercheuse chez Védecom, a obtenu un financement de l’Agence nationale de la recherche qui nous a permis de recruter à Sorbonne Université un doctorant en IA, Nelson de Moura, et une doctorante en philosophie, Katherine Evans, dirigée par le professeur Stéphane Chauvier. Grâce à ces échanges pluridisciplinaires, nous avons publié, en novembre dernier, un article sur les enjeux éthiques et algorithmiques que soulève l’arrivée des VCA.
Cet article met en avant la théorie de la valence éthique. Pouvez-vous nous en dire plus ?
R.C. : Des questions éthiques se posent lorsque les VCA sont confrontés à un accident inévitable et doivent prendre des décisions dont certaines s’apparentent à des dilemmes. Que doit faire le système de contrôle de la voiture : mettre en danger la vie des piétons ou celle des passagers ? Privilégier la survie des enfants plutôt que celle des adultes ? Minimiser globalement les dommages en choisissant une action qui blesse plusieurs personnes mais n’en tue aucune ? Agir au hasard ?
Différentes théories morales tentent de résoudre ces dilemmes : par exemple, et très grossièrement, la théorie utilitariste consiste à faire le plus grand bien au plus grand nombre ; la théorie rawlsienne privilégie le plus vulnérable ; etc. Les travaux de Katherine Evans et Stéphane Chauvier ont porté sur le concept de valence éthique. Selon cette théorie, chaque usager de la route (cycliste, piéton, bus, voiture, animaux, etc.) possède une certaine valence qui est une sorte de valeur revendiquée en fonction de critères qui peuvent être l’âge, le statut (cycliste, piéton, passager de la voiture, etc.), la vulnérabilité, etc. Cette valence est ensuite prise en compte par le système de décision du VCA que nous avons développé avec Nelson de Moura.
Comme le dilemme du trolley imaginé à la fin des années 60, cette théorie est une expérience de pensée ?
R.C. : Le dilemme du trolley montre un tramway hors de contrôle qui fonce sur cinq personnes. La seule manière de les sauver est d’actionner un levier d'aiguillage pour dévier le tramway vers une autre voie où il ne tuera qu'une seule personne. La question posée est : que feriez-vous si vous pouviez actionner le levier ?
Volontairement réducteur, ce problème ne visait pas, à l’époque, l’étude des VCA, mais une meilleure compréhension du raisonnement éthique des êtres humains. Il s’agit d’une expérience de pensée qui pose la question philosophique du choix entre des actions qui entraineront inévitablement des conséquences dramatiques.
Mais la réalité de la conduite automatisée est beaucoup plus complexe que ce dilemme : il y a de nombreux usagers de la route en mouvement dans un environnement pluriel. Comment définit-on alors la valence des personnes ? Selon quels critères : la sécurité ? La vulnérabilité ? Imaginez le danger si parmi les facteurs, vous identifiez des facteurs sociaux, physiques, ou autres d’autres critères discriminatoires. De plus, il y a beaucoup d’indéterminisme dans la perception comme dans l’action du VCA. L'intérêt de la réflexion, aujourd’hui débattue dans différentes instances éthiques, est justement de soulever ces problèmes.
Comment implémenter une théorie éthique dans un algorithme ?
R.C. : Dans notre laboratoire à l’Institut des Systèmes Intelligents et de Robotique, Nelson de Moura construit des simulations pour les processus de décision incertains. Il développe des algorithmes qui prennent en compte un certain nombre d’éléments comme la vitesse du véhicule, sa trajectoire, l’état du trafic, la présence d’obstacles, les positions et vitesses des autres véhicules, piétons, les modèles de dommage, etc. En fonction de ces paramètres, l’algorithme calcule la probabilité et l’effet de la collision sur les personnes. Il va ensuite effectuer un calcul d’optimisation probabiliste pour essayer de trouver l'action qui minimise les effets négatifs compte tenu des valences des usagers.
Dans ce cadre, il est possible de programmer plusieurs « profils » de systèmes de contrôle de la voiture : des systèmes altruistes qui cherchent à réduire les impacts de l'accident pour tous, des systèmes égoïstes qui vont privilégier les passagers du VCA, des systèmes utilitaristes où l’on veut diminuer le nombre de victimes, des systèmes qui prennent en compte la valence éthique, etc.
Il ne s’agit pas d’effectuer un choix entre tous ces systèmes, mais d’éclairer, à partir de modèles réalistes, la réflexion des parties prenantes : les comités d’éthique – notamment le Comité national pilote d’éthique du numérique dont je suis membre –, les juristes, philosophes, scientifiques, industriels, autorités publiques, etc.
Quand, selon vous, les véhicules à conduite automatisée pourront être déployés ?
R.C. : Les VCA ne sont pas, selon moi, suffisamment au point pour être déployés dans nos rues avant la fin de la décennie, même s’ils peuvent l’être avant dans un environnement plus simple comme les autoroutes. Certes, dans les expérimentations en cours, ils évitent déjà certains accidents qu'un être humain provoquerait (en raison de l’inattention, l’endormissement ou l’abus d’alcool par exemple), mais ils n’ont pas encore les capacités de perception, d’évaluation de situation et de décision nécessaires pour traiter des environnements aussi complexes que nos villes. Les expérimentations menées sont réalisées sur de larges autoroutes où toutes les voitures roulent dans le même sens et à vitesse comparable. Or même dans cet environnement relativement simple et protégé, les VCA ont causé des accidents qu'un être humain n’aurait pas provoqués ; ce qui montre que leur système n'est pas encore fiable.
Au-delà de la sûreté de leur fonctionnement, qui s’améliorera avec les recherches, les VCA soulèvent un problème philosophique : celui de choisir, a priori, la stratégie de décision qui s’appliquera implacablement en cas d’accident. Supposons que nous décidions d’inscrire dans le code de la route qu’un VCA suivra une pure théorie utilitariste ; les constructeurs automobiles vont alors programmer leurs véhicules pour qu'ils se comportent de cette manière. Mais est-il acceptable de dire qu'en cas d’accident nous devrions choisir a priori qui sacrifier alors qu’un conducteur humain réagirait lui de manière imprévisible, avec ses émotions, ses réflexes et le contexte du moment ?
Par ailleurs, si nous choisissions d’appliquer la théorie de la valence éthique, quand bien même nous réussirions à nous mettre d’accord sur les critères qui la définissent, cela nécessiterait, pour le véhicule, de reconnaître correctement les usagers de la route pour leur affecter la bonne valence (par exemple : cette silhouette correspond à celle d’un enfant et le VCA doit l’éviter). Or, pour l’instant, nous sommes encore loin d’avoir une machine capable d’une telle reconnaissance avec une confiance suffisante.
Enfin, il ne s’agit pas seulement de déployer des VCA qui seront connectés, mais aussi de mettre en place les infrastructures routières et de télécommunication nécessaires. Nous pouvons, par exemple, envisager des couloirs particuliers pour les VCA ou imaginer de limiter leur vitesse pour éviter un choc fatal. Dans tous les cas, cette question éthique demande du temps pour être analysée de façon pluridisciplinaire avec des juristes, philosophes, technologues, etc. Ce dilemme, dont la meilleure solution est encore d'éviter a priori qu'il se pose, est donc encore loin d’être tranché.