Sociologie : le dilemme de la voiture autonome inoffensive

L’arrivée des voitures autonomes pose un dilemme cornélien qui devrait diviser nos sociétés sur une question centrale. Doit-on privilégier le bien commun ou ses intérêts personnels ?

Le dilemme des machines

Les voitures autonomes pourraient réduire le nombre d’accidents de plus de 90% tout en réduisant les émissions carbone.

On part souvent du principe que les voitures autonomes réduiront drastiquement le nombre d’accidents et augmenteront donc considérablement la sécurité routière. C’est sans compter les problématiques inhérentes à la programmation des machines. Elles sont toutes conçues et programmées pour remplir une mission bien précise et pas une autre. Il est toujours difficile de prendre en compte la grande variété de situations et d’éléments d’un environnement donné. Aussi, de plus en plus de chercheurs s’intéressent à intégrer plus de souplesse aux machines dans la poursuite de leur objectif. Hier, une équipe de Google Brain pointait cette problématique en dressant une liste de cinq problèmes mineurs dans la programmation des systèmes autonomes mais qui pourraient avoir des conséquences importantes. Quelques jours plus tôt c’était une équipe de Georgia Tech qui proposait un genre de guide de conduite à destination des robots, pour les pousser à bien se comporter au-delà du seul accomplissement de leur mission.

Le bien commun contre l’intérêt personnel ?

Imaginez que vous fonciez en direction d’un passage piéton traversé par une femme et son bébé. Instinctivement, vous feriez probablement tout pour les éviter et donc les sauver. Tout cela implique de sacrifier votre propre sécurité pour celle d’autrui. En esquivant l’obstacle vous finiriez probablement dans le fossé ou sur une voiture en sens inverse.

L’esprit égoïste est en réalité contre-balancé par un esprit d’altruisme. Le défi, c’est donc de trouver un équilibre entre la préservation de la vie des autres, et la préservation de sa propre vie. Pour ce qui est des hommes, le choix se fait généralement de façon soudaine et instinctive (du moins dans une situation d’urgence). Il est donc difficile de légiférer dessus. Les machines, de leur côté, peuvent être programmées. Dans l’esprit des trois lois de la robotique d’Asimov, on programmerait logiquement une machine à se sacrifier si la vie d’un homme était en jeu. Jusque là, aucun problème. Mais lorsqu’il s’agit d’un véhicule, certes autonome, mais transportant des passagers, il est déjà beaucoup plus difficile de se prononcer. Doit-on sauver les personnes qui sont à l’intérieur ou celles à l’extérieur ?

trolley-paradox

Moralité et sécurité : le dilemme de la voiture autonome

Trouver cet équilibre, c’est toute la question à laquelle une équipe internationale a voulu répondre. Une nouvelle étude parue dans la revue Science vient d’esquisser un tout nouveau paradoxe comportemental. Selon cette étude, si vous vous écoutiez, vous voudriez que votre voiture autonome soit la plus inoffensive. C’est à dire que la plupart des personnes interrogées au cours de cette étude demandent à ce que les véhicules autonomes évitent de causer de dommages collatéraux.

On appelle cela l’altruisme. Néanmoins, après mûre réflexion, vous vous rendriez compte que si vous épargnez la vie d’autrui, c’est forcément en sacrifiant quelque chose. Votre propre sécurité. Ce paradoxe a été expérimenté pour la première fois par la philosophe Philippa Foot et son expérience du Trolley. Elle a imaginé une situation similaire dans laquelle un train serait entrain de foncer tout droit sur un groupe de cinq personnes. Ajoutez à cela une autre personne également coincée sur la voie alternative. Le dilemme ? Si vous actionnez l’aiguillage pour sauver les cinq personnes, vous condamnez une autre vie. Dans cette situation, vous penseriez probablement à sauver le groupe de cinq plutôt qu’une seule vie. Mais dans une situation où vous seriez vous-mêmes directement impliqués, la question serait d’autant plus épineuse.

Jean-François Bonnefon (Toulouse School of Economics), Azim Shariff (département de psychologie de l’Université de l’Oregon) et Iyad Rahwan (Media Lab du MIT) ont distingué deux types de programmation possibles. L’une utilitariste qui correspond à un véhicule qui privilégie la sécurité du plus grand nombre. L’autre, égoïste, privilégiant donc la sécurité individuelle du passager. Le dilemme ? Au cours de leurs travaux, les chercheurs ont découvert que les participants de six expérimentations Amazon Mechanical Turk ont avoué préférer le véhicule utilitariste lorsqu’il s’agit des autres. A l’inverse, quand il s’agit de leur propre véhicule, ils ont majoritairement opté pour l’option égoïste. En clair, tous veulent que les autres agissent pour le bien commun, mais tous agiraient individuellement dans leur propre intérêt… Un dilemme d’autant plus cornélien que tous les sujets interrogés se sont déclarés contre des règles utilitaristes qui imposeraient à la machine de privilégier le bien commun. Qui voudrait froidement sacrifier sa vie contre celles des autres ?

Ci-dessous, les trois types de situations problématiques. En A, la voiture sauve un groupe de personnes aux dépens des passagers et d’un piéton. En B, les passagers sacrifient leur sécurité pour celle d’un seul piéton. Et en C, la voiture sacrifie ses passagers au profit d’un groupe de piétons.

dilemme-voiture-autonome-2016-1

Un débat de société inévitable

L’autre problème, c’est que l’adoption de règles utilitaristes pour favoriser le bien du plus grand nombre dans le court-terme pourrait finalement freiner la popularisation des voitures autonomes, censées être plus sécuritaires… et donc paradoxalement pénaliser le bien commun dans le long-terme.

Selon les chercheurs, il faut impérativement trouver une solution qui réponde à toutes ces attentes contradictoires. Néanmoins, c’est tout sauf une mince affaire. D’après eux, « trouver une façon de concevoir des véhicules autonomes avec un sens moral constitue l’un des défis les plus redoutables de l’intelligence artificielle« . Car si les algorithmes nourris de la montagne de données collectées sur le trafic routier chaque jour peuvent aider à lutter contre l’insécurité routière, « il ne semble exister aucune manière de concilier les valeurs morales et les intérêts personnels« . Dans un avenir proche, ces questions éthiques particulièrement sensibles devraient susciter de vifs débats publics qui inviteront la société à s’interroger sur ses valeurs morales et ses priorités. Celui qui détient la réponse à cette question pourrait bien réconcilier la nature humaine avec les obligations de la vie en société. Quoi qu’il en soit, les parlements seront tous appelés à statuer sur la question, dans un sens ou dans l’autre.

 

dilemme-voiture-autonome-2016-2

Laisser un commentaire

  1. zelectron

    le présupposé de cet article consiste en l'hypothèse que les ingénieurs qui conçoivent les voitures robots sont des abrutis

  2. Berlherm

    Les êtres humains ne sont pas des êtres moraux puisqu'ils fabriquent d'autres êtres qui souffriront et mourront uniquement pour les idées stupides de ceux qui les fabriquent . La moralité est une création culturelle humaine à géométrie très variable.

  3. ccomp

    La question ne se pose peut-être pas dans ces termes si l'on regarde le problème de façon plus large.
    Dans le cas du Trolleybus, en choisissant la mort d'une personne au lieu de 5, on en sauve 4. C'est bien lorsque "toute chose étant égale par ailleurs".
    Or, un accident de car tuant 30 personnes d'un coup étant médiatiquement plus percutant, privilégier la mort du plus grand nombre provoque un plus grand émoi, une remise en question plus importante, une pression sur le concepteur du système. Les améliorations techniques qui en découlent alors permettent de sauver plus de vies à l'avenir...

  4. axel18

    Et pourquoi la question ne se pose pas lorsqu'un humain conduit ?