Une lettre ouverte contre les systèmes d’armes autonomes

Une lettre ouverte contre les systèmes d'armes autonomes

Alors que les craintes concernant les IA ont mené à différents projets ayant pour but d’encadrer la recherche pour que celle-ci soit bénéfique au genre humain, une autre inquiétude paraît. Le professeur Toby Walsh a publié aujourd’hui une lettre ouverte pour demander l’interdiction des systèmes d’armement autonomes.

Adressée aux Nations-Unies, la lettre explique que le déploiement de ce genre de système sera possible d’ici quelques années et que l’occasion se présente à nous d’empêcher une course à l’armement qui nuirait gravement à l’humanité. Les IA peuvent apporter beaucoup au monde, entre les inégalités, la pauvreté, les coûts médicaux élevés, le réchauffement climatique. Pour les chercheurs ayant signé la lettre, un peu plus d’un millier, les IA ne doivent pas être corrompues en servant à révolutionner l’art de la guerre.

Au milieu des signataires, des grand noms comme Elon Musk, Stephen Hawking ou Steve Wozniak apparaissent, inscrivant la lettre dans leur optique de développement durable des IA et de développement responsable. La lettre ne demande pas l’abandon des recherches sur les IA, au contraire, mais demande à ce que la technologie ne soit pas développée dans le but de détruire, mais plutôt de servir.

Une lettre pour demander le développement d'IA bénéfiques

Voici une traduction de la lettre ouverte, vous pourrez trouver (et signer) l’originale ici.

« Les armes autonomes choisissent et attaquent leurs cibles sans intervention humaine. Elles peuvent inclure, par exemple, des quadricoptères qui peuvent chercher et éliminer des personnes répondant à certains critères prédéfinis, mais n’inclut pas les missiles de croisière ou les drones pilotés à distance pour lesquels des humains prennent toutes les décisions de ciblage. La technologie des intelligences artificielles a atteint le point où le déploiement de ce type de système est, sinon légalement, au moins pratiquement, réalisable dans les années et non les décennies à venir. Et les enjeux sont de taille : les armes autonomes ont été décrites comme la troisième révolution dans l’art de la guerre, après la poudre et le nucléaire.

Beaucoup d’arguments ont été avancés en faveur et contre, comme par exemple, le fait que remplacer des soldats humains par des machines est une bonne chose puisque cela fait baisser les pertes humaines pour le propriétaire du système tout en étant une mauvaise chose puisqu’abaissant par là les ressources nécessaires pour partir en guerre. La question clé pour l’humanité aujourd’hui est de savoir si l’on veut commencer une course à l’armement autonome intelligent ou l’empêcher de débuter. Si n’importe laquelle des premières puissances militaires prend de l’avance dans le développement de ce type d’armes, une course à l’armement globale est virtuellement inévitable et la finalité de cette trajectoire technologique est évidente : elles deviendront les kalashnikov de demain. Contrairement aux armes nucléaires, elles ne requièrent pas de matériaux coûteux ou difficiles à obtenir et deviendront donc les systèmes bon marché et omniprésents que chaque puissance militaire majeure pourra produire en masse. Ce ne sera plus qu’une question de temps avant qu’elles n’apparaissent au marché noir et dans les mains de terroristes, de dictateurs désirant mieux contrôler leurs peuples, de chefs de guerre souhaitant procéder à des nettoyages ethniques, etc. Les armes autonomes sont parfaites pour des missions comme l’assassinat, la destabilisation de nations, la soumission de populations ou la mise à mort sélective d’un groupe ethnique particulier. Voilà pourquoi nous pensons qu’une course militaire aux armes autonomes intelligentes ne serait pas bénéfique pour l’humanité. Il y a beaucoup de façons pour les IA de rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer un nouvel outil pour tuer les gens.

De la même façon que la plupart des chimistes et biologistes n’ont aucun intérêt dans la construction d’armes chimiques ou biologiques, la plupart des chercheurs en intelligence artificielle n’ont aucun intérêt dans la création d’armes IA, et ne veulent pas que d’autres ternissent leur domaine de recherche en le faisant, créant potentiellement une réaction publique négative contre les IA, entravant ainsi ses bénéfices sociaux futurs. En effet, la plupart des chimistes et biologistes ont largement soutenu les accords internationaux qui ont interdit avec succès celles biologiques et chimiques, de la même façon que la plupart des physiciens ont soutenu les traités interdisant celles nucléaires spatiales et les lasers aveuglants.

Pour résumer, nous pensons que l’intelligence artificielle possède un grand potentiel bénéfique pour l’humanité et que l’objectif sur le terrain ne devrait être que ça. Lancer une course à l’armement IA est une mauvaise idée et devrait être empêchée grâce à une interdiction des armes autonomes offensives sans contrôle humain significatif.

Toby Walsh, professeur, chef de groupe de recherche, membre du groupe de recherche en optimisation au NICTA.


Laisser un commentaire

  1. Minilinou

    Steven Hawking ?? Plutôt Stephen nn ?