Google esquisse des règles de sécurité pour développer les IA

Une équipe de chercheurs a dressé une liste de règles de sécurité pour les machines. Un aperçu des lignes directrices à avoir en tête lorsqu’on a la bonne ou mauvaise idée de concevoir une IA.

L’intelligence artificielle nourrit toutes les craintes

A chaque nouveau coup d’éclat, l’intelligence artificielle subit un torrent de critiques. Quand ALphaGo a vaincu Lee Sedol, on s’est empressé de présenter la machine comme étant supérieure à l’Homme, alors qu’elle ne l’était en réalité que dans un domaine ultra-précis et ce après des mois d’entraînement intensif. Face aux nombreux reproches formulés à l’encontre de l’intelligence artificielle et notamment des géants du web qui la développent dans leurs laboratoires secrets, Google a décidé de dresser une liste des problématiques majeures soulevées par l’essor des machines intelligentes.

Cette liste a été dressée par une équipe éclectique rassemblant trois ingénieurs de Google Brain, un ingénieur de l’OpenAI d’Elon Musk, et deux chercheurs des Universités de Berkeley et de Stanford.

Selon eux, « les technologies d’IA seront probablement extrêmement utiles et bénéfiques à l’humanité« . Conscients des dangers potentiels résidant dans chaque technologie quelle qu’elle soit, ils ont donc décidé de publier le papier « Problèmes concrets de sécurité IA« . Mais leur objectif n’est pas tant d’éveiller les consciences sur les dangers de l’IA, mais bien plutôt de dresser une liste scientifique et objective des dérives possibles dans le but de rassurer sur cette technologie, encore trop souvent associée à ses apparitions dans la science-fiction, qui exagère volontairement ses traits pour la rendre divertissante.

D’après eux, les inquiétudes concernant l’IA ne sont pas infondées mais sont très largement exagérées et poussées par les passions plutôt que par la raison. Plutôt que des observations scientifiques, ce sont des « discussions très largement hypothétiques et spéculatives » qui ont entouré le sujet. Il est donc grand temps de s’intéresser à des cas pratiques et de mettre fin à toute l’hystérie spéculative. Une hystérie sur laquelle joue volontiers certaines figures majeures de la Silicon Valley comme Elon Musk, qui n’a pas peur d’employer les grands mots et de provoquer la polémique pour se faire de la publicité, quitte à détériorer l’image de la technologie qu’il développe lui-même…

Que dit cette liste ?

Exit l’idée d’installer un bouton rouge pour éteindre les robots de Google, pour redorer l’image de l’IA et en fournir une évaluation objective, l’équipe a dressé une liste de problématiques soulevées par les machines intelligentes. Leur démarche consiste à montrer que la recherche n’est pas dénuée de tout sens commun et qu’elle n’agit pas par simple avidité. « Les enjeux de vie privée, de sécurité, d’équité et d’économies sont tous importants à nos yeux. Mais dans ce document nous discutons un autre type de problème de l’IA qui a tout autant d’impact sur la société : les accidents des systèmes de machine learning » écrivent-ils en guise d’introduction.

Par accident, ils entendent toute situation dans laquelle une tâche programmée par un ingénieur humain a été mal exécutée par la machine et a produit des séquelles. Ils ont défini plusieurs catégories, chacune correspondant à une étape différente où le problème peut survenir. Que ce soit dans la programmation ou dans la collecte de l’information que dans le traitement de cette information et dans l’exécution.

Cinq problématiques sont apparues aux yeux des ingénieurs. Des problématiques mineures qui apparaissent lors de la programmation des systèmes autonomes et qu’il faudra savoir résoudre dans les prochaines années pour éviter toute dérive, disent-ils.

1. Dommage collatéraux.
Comment s’assurer qu’un robot, en remplissant sa mission, ne fasse pas de mal à une tierce personne non comprise dans le programme ? C’est toute la question à laquelle tente d’ailleurs de répondre une équipe de Georgia Tech, qui cherche à élaborer un genre de manuel de savoir-vivre pour les robots. Un guide de conduite qui s’apparente aux lois d’Asimov et qui vise à permettre au robot de hiérarchiser les priorités selon les différentes situations. Ils entraînent leurs systèmes à respecter les conventions sociales et comportementales humaines, par exemple à faire la queue dans une pharmacie, bien que la mission principale soit de récupérer des médicaments (et non de faire la queue). Pour qu’un robot s’intègre sans remous dans la vie en société, ses programmeurs doivent impérativement inclure tout un tas de facteurs extérieurs et toujours prioriser la sécurité des humains au delà de la réussite de la mission.

2. Reward Hacking et tricherie
Tout faire pour que le robot ne trouve pas de failles dans sa programmation. C’est à dire, faire en sorte qu’il ne trouve pas d’issue plus rapide à un même problème. Auquel cas il apprendrait tout seul à réitérer la solution non prévue par les programmeurs, et qui pourrait causer de sérieux dommages collatéraux. C’est l’un des problèmes les plus difficiles à résoudre selon l’équipe de chercheurs, du fait de l’infinie variété d’interprétations que peut avoir un robot d’un même objectif. Comprendre, si un aspirateur autonome se rend compte que pour remplir sa mission plus vite il peut décider soit de nettoyer efficacement, comme prévu initialement, soit de balayer rapidement, soit même décider de salir le sol pour avoir à le relaver. En clair, si le système détecte une faille dans sa programmation, il peut décider de l’exploiter encore et encore pour atteindre plus souvent l’objectif pour lequel il a été conçu, au point de causer toute une série de dégâts imprévus. Ce « bug » qui n’en est pas un pour le robot, intervient à cause d’une technique de base de l’apprentissage automatique : la fonction de récompense (reward function) qui consiste à récompenser le système lorsqu’il a atteint son objectif.

3. Supervision souple.
« Prenez un agent autonome exécutant une tâche complexe, comme le nettoyage des bureaux« . S’il veut atteindre la perfection, il va devoir demander régulièrement à son utilisateur s’il est satisfait par le ménage. Sauf que si l’appareil est programmé pour satisfaire au maximum son utilisateur, alors il lui demandera sans cesse si son travail est efficace. A tel point que la machine ne semblera même plus autonome. Pour y remédier il faut donc concevoir des modes de supervision plus souples et moins fréquents.

4. Exploration en sécurité
Ou comment s’assurer que l’IA ne se lance pas dans une aventure d’exploration qui puisse avoir des effets négatifs ? Toujours avec l’exemple du robot aspirateur, il pourrait être amené à tester de nouveaux outils. Mais comment s’assurer qu’il n’essaie pas de passer la serpillière sur un appareil électronique par exemple ?

5. Sens de l’adaptation.
Comment s’assurer qu’une IA se comporte correctement dans un environnement nouveau et donc différent de son environnement d’entraînement ? Par exemple, ce qu’il a appris du déplacement sur un sol très lisse ne l’aidera pas à se déplacer sur un sol rugueux en dehors de son laboratoire. Il faut donc concevoir des systèmes capables de s’adapter à leur environnement. Cela commence par la reconnaissance de sa propre ignorance. On ne peut prétendre agir exactement de la même façon d’un lieu à l’autre. Une IA doit donc apprendre à réapprendre.

Voilà toute une série de problèmes que rencontrent tous les ingénieurs en machine learning. Pour le moment ces problèmes d’adaptation sont mineurs car chaque machine est conçue pour une tâche spécifique et il n’est donc pas trop difficile de programmer plusieurs comportements, mais à mesure que les IA seront multitâches, ces problèmes deviendront de plus en plus importants, car leurs conséquences seront proportionnellement amplifiées.

Dans son article de recherche, l’équipe propose déjà une série de solutions pour chacun des problèmes évoqués.


Laisser un commentaire