Et si les robots étaient pourvus de libre arbitre ?

les-robots-et-l'éthique

Peut-on fabriquer des robots bienveillants ? Fasciné par cette idée, le roboticien Alan Winfield du laboratoire de robotique de Bristol, a imaginé un programme pour détecter à quel point un robot peut être pourvu d’éthique. Les résultats sont surprenants…

Comment réagit un robot face à une problématique de l’ordre de l’éthique ? L’expérience de ce chercheur anglais et de son équipe, décrite dans le n°2986 du magazine New Scientist, est bien particulière. Ils ont programmé un robot afin qu’il empêche les autres robots – des bots informatiques agissant en qualité de proxy – de tomber dans un trou. Il s’agit ici d’une version simplifiée de la première loi de la robotique qu’avait imaginée Isaac Asimov dans sa fiction Cercle vicieux (Runaroun, 1942) :

Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.

Alors, pour tester cette loi, le robot a d’abord été confronté à un scénario simple : sauver la vie d’un bot. Le robot a mis à exécution, avec succès, ce pour quoi il était programmé. Quand il détectait que le bot proxy se déplaçait vers le trou, le robot se précipitait pour changer sa trajectoire et le mettre hors de danger. Dans un deuxième temps, le robot a été mis en présence de deux bots à sauver, ceux-ci se dirigeant simultanément vers le trou.

Et si les robots étaient pourvus du libre-arbitre

Un choix cornélien pour le robot

Lequel de ces deux bots sauver en premier ? Pourquoi l’un plutôt que l’autre ? Voilà le dilemme auquel était confronté le robot.

L’équipe a constaté au cours d’une expérience, que 14 fois sur 33, le robot était tellement désemparé, qu’au lieu d’en sauver au moins un sur les deux, il échouait, et les deux finissaient leur course dans le trou. Lorsqu’il se décidait à en choisir qu’un, il laissait l’autre tomber. Parfois, il parvenait à dévier les deux de leur trajectoire mortelle. en faire tomber aucun.

Winfield décrit alors le robot comme un « zombie éthique », qui n’a d’autre choix que de se comporter comme il le peut. Même s’il a été programmé pour sauver les autres bots selon un code de conduite bien précis, il ne parvient pas à comprendre le raisonnement qu’il y a derrière ses actions. Winfield admet qu’avant l’expérience, il pensait les machines incapables de faire des choix en accord avec une éthique. Aujourd’hui, sa réponse est moins franche : il n’en a aucune idée.

Si les robots peuvent avoir la faculté de libre arbitre, cela pourrait changer la façon dont nous les percevons. Comme ils sont amenés à évoluer au sein de notre société, cette question n’est pas anodine. Une voiture autonome, par exemple, peut se retrouver dans une situation où elle aura à faire le choix entre sauver la vie de ses passagers ou celle du piéton qui traverse imprudemment. Programmer la réaction à avoir dans ce genre de circonstances avec des règles de conduite sera extrêmement complexe.

L’éthique dans des environnements complexes n’est pas chose simple

Pour cela, des robots à usage militaire sont déjà en cours de test à l’Institut Georgia Tech à Atlanta (Etats-Unis) ou dans le département de recherche navale de la Marine des États-Unis (lire notre article). Ronald Arkin, chercheur en informatique (et plaidant pour une utilisation raisonnée des robots tueurs), construit des algorithmes pour des robots qu’il suromme «gouverneurs éthique», qui les aident à prendre les bonnes décisions en situation de combat. Il a déjà testé des drones dans une simulation de combat, où les aéronefs pouvaient décider de tirer ou pas sur une cible tout essayant de minimiser les pertes humaines dans une zone protégée à éviter (hôpital, école, …).

Selon Arkin, programmer des robots à respecter des lois militaires établies depuis des centaines d’années est une chose facile, car ces lois de guerre sont codées et connues de tous. A l’inverse, l’homme influencé par ses émotions, pourra plus facilement briser ces lois.

Avec l’expérience de l’équipe anglaise, la recherche en est au balbutiement de la programmation d’un comportement éthique chez les robots, dans un environnement complexe. Arkin finit en disant que si les constructeur arrivent à les faire fonctionner dans des environnements où l’imprévisible peut arriver, alors un vaste champ d’applications s’ouvrira devant les robots.

L’équipe du Pr. Alan Winfield a présenté son travail lors de la conférence Towards Autonomous Robotic Systems qui s’est tenue le 2 septembre à Birmingham (Royaume-Uni).

En savoir plus sur le laboratoire de robotique de Bristol


Laisser un commentaire