Interview dans New Scientist d’un militant anti-drone

Dans l’hebdomadaire scientifique New Scientist, un expert en intelligence artificielle, Mark Bishop, a répondu aux questions du journaliste sur les risques que pourrait représenter l’utilisation des drones de combat. En quelques mots, Mark Bishop pense qu’il est essentiel d’interdire l’utilisation des armes qui ne nécessitent pas l’intervention de l’homme.

New Scientist : Qu’est-ce que la « campagne de sensibilisation pour stopper les drones tueurs » (Campaign to Stop Killer Robots) ?
Mark Bishop : Il s’agit d’une confédération d’associations non gouvernementales et de groupes de pression, qui lutte pour l’interdiction de la production et développement des systèmes de missiles complètement autonomes – là où l’intervention de l’homme dans le choix de la cible et dans la décision de tir est nulle.

New Scientist : Où en sommes-nous ?
M.B. : Il existe déjà des exemples, comme le système de tir Phalanx, qui est déployé depuis plusieurs années sur la majorité des navires de l’US Navy pour détecter et tirer automatiquement sur les dangers entrants. Un autre exemple est l’UAV israélien Harpy, « tire et oublie » (fire-and-forget), qui cible les installations radar.

humanoides_fr_Phalanx

New Scientist : Quelle est la raison du développement d’une telle technologie ?
M.B. : Les stratégies de défense des nations occidentales se focalisent sur les drones plutôt que sur les solutions traditionnelles, mais les drones contrôlés à distance restent piratables. Tandis que les systèmes entièrement autonomes sont virtuellement indétournables. Ils coûtent moins cher aussi. Ce qui implique que les industriels en vendent un plus grand nombre, et donc l’intérêt commercial et gouvernemental à développer et déployer ce genre d’engins, grandit.

New Scientist : Quels sont les dangers ?
M.B. : Il y a des raisons de douter de la pertinence d’un système autonome à prendre une décision d’engagement de cible, à réagir de façon proportionnée par rapport à une menace ou encore, distinguer de manière fiable l’ennemi de la population civile. De plus, quand plusieurs logiciels complexes interagissent simultanément, il y a potentiellement un risque incommensurable. Le dernier exemple en date est le bug de 2011 qu’a connu Amazon (le géant de l’e-commerce) avec son système de prix automatique (le prix du livre The Making of a Fly a grimpé jusqu’à plus de 23 millions de dollars)

humanoides_fr_drone_harpy_iai

New Scientist : Donc ce qui vous fait peur c’est une escalade ?
M.B. : Oui. En Corée du Sud, des scientifiques sont en train de développer un robot pour patrouiller à la frontière avec la Corée du Nord. Si ce dernier venait à agir de manière incorrecte ou disproportionnée, on peut très bien imaginer une escalade de la tension jusqu’à une confrontation plus violente. Plus effrayant encore, pendant l’exercice de simulation militaire américain d’Able Archer de 1983, les systèmes automatiques de défense russes ont détecté par erreur la menace d’un missile entrant, et c’est grâce à l’intervention d’un colonel russe qu’une guerre nucléaire a été évitée. Mais l’escalade potentielle devient particulièrement dangereuse quand vous avez des systèmes autonomes qui interagissent avec d’autres systèmes autonomes.

New Scientist : Les robots ne peuvent-ils par réduire les risques humains ?
M.B. : Certaines personnes comme le roboticien américain Ronald Arkin affirment que les robots n’agissent pas sous le coup de la passion, ou la revanche comme pourraient le faire un soldat. Mais cette théorie n’aborde ni le problème de l’escalade ni le problème de la fiabilité d’un système autonome à déterminer, juger, engager une cible correctement.

New Scientis : Que doit-on faire alors ?
M.B. : La technologie utilisée dans les systèmes autonomes a d’autres utilités, comme par exemple la voiture autonome de Google ; donc, interdire son développement me paraît difficile. En revanche, nous devons nous focaliser sur un traité global qui banisse le développement des missiles autonomes après lancement.

Mark Bishop est professeur d’informatique cognitive à l’Université de Londres et siège à la Society for the Study of Artificial Intelligence and the Simulation of Behaviour.

Une deuxième interview très intéressante est à lire sur le site Regards.fr, celle de Grégoire Chamayou, philosophe et auteur de Théorie du drone, qui pointe les dangers juridiques et politiques qu’ils engendrent.


Laisser un commentaire