Les robots de sécurité ne sont rien sans pouvoir coercitif

Le robot dans un super-marché américain

Des chercheurs de Cornell se sont intéressés au pouvoir d’influence de la présence d’un robot. Sont-ils capables de nous rendre plus honnêtes ? Oui et non, nous répond Guy Hoffman…

La présence d’autrui, un facteur d’honnêteté

Guy Hoffman est chercheur roboticien à la prestigieuse Université de Cornell. L’une de ses thématiques de recherche principales est celle du pouvoir psychologique exercé par la seule présence d’un robot.

Dans sa nouvelle expérience, rapportée par New Scientist, et dont le papier académique est encore en attente de validation, celui-ci s’est penché sur le cas précis des robots de sécurité.

Pour fonder son expérience, l’ingénieur s’est inspiré d’une expérience socio-psychologique, célèbre dans son milieu : celle menée en 2006 par Melissa Bateson de l’Université de Newcastle au Royaume-Uni.

Une expérience somme toute assez simple qui peut se résumer ainsi : dans la cafétéria d’une entreprise, rares sont les gens qui paient le prix réel du café (les utilisateurs sont libres de donner ce qu’ils estiment juste). Pour mesurer l' »influençabilité » des employés, les chercheurs ont placé sur la machine à café une nouvelle liste de prix avec non pas des images de fleurs en guise de décoration mais deux yeux qui regardent fixement le client. Ils ont ensuite régulièrement alterné entre de nouvelles images de fleurs et de nouveaux visages, mais toujours avec ces mêmes yeux fixes. Les chercheurs ont fait les comptes, en quelques semaines d’expérimentation seulement, les employés auraient payé 2,76 fois plus que ce qu’ils ont payé avec les images de fleurs. Les chercheurs ont expliqué ce bouleversement par le pouvoir exercé par les yeux sur la psychologie des employés. Avec l’impression d’être épiés, ceux-ci ont naturellement été poussés vers une attitude honnête.

En 2015, Guy Hoffman tente une première fois d’appliquer cette théorie au monde de la robotique. Selon lui « les robots sont appelés à travailler dans des milieux où l’honnêteté de l’Homme joue un rôle important : les écoles, les bureaux, les institutions, les transports …« . Ce constat appelle donc la question fatidique : la présence d’un robot peut-elle pousser un Homme à se comporter de façon plus honnête ?

C’est à cette question que sa première étude, parue en mars 2015 et intitulée « Présence robotique et honnêteté humaine : démonstration empirique » propose de répondre. Au cours de cette expérience, les résultats sont sans appel : au cours d’une activité non dictée par des règles strictement établies et connues, des personnes ont fait preuve d’une plus grande honnêteté lorsqu’un robot se trouvait dans les parages. Il s’agissait à l’époque d’un modèle à quatre degrés de liberté, simple mais qui a une capacité de rotation et donc de surveillance certaine.

robot-cornell-honete-2016-1

Le plus surprenant, c’est que pour appuyer leurs résultats, ils ont comparé trois types de situations. L’une dans laquelle une personne devait réaliser une action se sachant seule dans la pièce, une autre où elle devait le faire en présence du robot et la dernière en présence d’une autre personne. Résultat, l’honnêteté des sujets était presque égale que la tierce personne soit un robot ou un humain.

Une honnêteté vite oubliée

Dans un souci de vérification de la fiabilité de sa thèse, Guy Hoffman a souhaité la confirmer à travers une nouvelle expérience.

Cette fois-ci, son équipe a employé un modèle mObi conçu par la société américaine Bossa Nova. Dans la salle de pause, ils ont placé une boîte de bonbons avec inscrit « réservé ». Ils ont ensuite demandé au mObi de garder la pièce. A noter que le modèle mObi, à l’inverse de la majorité des robots de sécurité, a été spécialement pensé pour ne pas apparaître comme menaçant. A vrai dire, il a plus l’air d’un robot de télé-présence que d’un gardien de l’ordre.

bossanovarobotics-mobi-2

Toujours est-il que contre toute-attente, 7% des passants se sont tout de même servis dans la boîte de bonbons, soit 1 point de moins que lorsqu’il n’y avait pas de robot du tout. Par contre, lorsqu’une autre personne humaine était présente dans la pièce, seul 2% des passants ont osé se servir.

Des résultats en complète contradiction avec ceux que les deux expériences précédentes avaient pu produire. Et qui ne rassurent aucunement Hoffman, qui s’inquiète d’un futur où l’on accorderait trop de confiance aux machines : « il est question de les voir dans la santé, l’éducation et même les institutions gouvernementales et l’armée, des endroits où l’éthique comportementale est très importante« .

Il ne s’agit pas de craindre que le robot lui-même fasse un faux pas, mais que leur présence ne suffise pas à remplacer une personne humaine.

Afin d’en savoir plus sur le comportement des passants, les chercheurs avaient évidemment placé une caméra cachée. Ils ont donc analysé les attitudes de centaines de personnes capturées par la caméra. Un grand nombre de ces personnes s’est empressé de tester les capacités du robot, de savoir comment il pouvait se déplacer, comment il réagissait si justement il enfreignait la règle de la boîte à bonbon. Il faut tout de même rappeler que l’expérience s’est déroulée sur le campus de l’université et que ce genre de tests doit régulièrement avoir lieu. Un test en conditions réelles serait donc le bienvenu. Ce type de biais est encore trop courant, du fait du caractère encore extraordinaire de la présence d’un robot, qui pousse paradoxalement les gens à réagir de façon inattendue. On se souvient d’ailleurs des anecdotes racontées par le CTO du projet Google Car : lorsque les gens se retrouvent face à face avec une voiture sans conducteur, ils sont souvent poussés à réagir comme jamais ils ne le feraient autrement : des jeunes qui sautent sur la voiture, d’autres qui traversent en faisant des sauts de grenouilles…

En mars, des étudiants de Stanford s’étaient également amusés à tester les réactions des autres étudiants face à un robot plus entreprenant mais dont la mission n’est pas clairement définissable par son apparence.

Dans le cas présent, un certain nombre de passants ont été curieux de voir si le robot les arrêterait s’ils violaient la règle. Un étudiant aurait même demandé à son camarade de détourner l’attention du robot pendant qu’il volait des bonbons.

New Scientist est donc allé voir d’autres chercheurs pour leur demander leur avis. Matthias Scheutz de l’Université Tufts de Medford ne s’est pas dit surpris. D’après lui, le robot ne montrait aucun signe d’engagement social : il était muet et ne fixait pas les gens des yeux alors qu’ils lui tournaient autour, ce qui leur a laissé penser qu’il n’interviendrait probablement pas non plus lorsqu’ils « voleraient » des bonbons.

Sean Welsh de l’Université de Canterbury est encore plus direct : à moins que la machine n’intervienne franchement pour stopper un voleur, il n’y a aucune raison de s’attendre à ce que les gens lui prêtent attention, « il faudrait au moins qu’il tourne la tête, montre un signe de désaccord ou émette un son » explique-t-il. Un autre chercheur indique que le fait de déguiser la machine en gardien suffirait déjà à lui donner plus de crédit et donc d’autorité. De là à voir apparaître des robots capables d’exercer un pouvoir de coercition…


Laisser un commentaire