L’harmonie homme-machine au coeur du nouveau centre de recherche en IA de Berkeley

robot-pr2-berkeley

Apprendre aux machines à se conformer aux valeurs humaines et éviter qu’elles n’entrent en conflit avec l’Homme, telle est la mission du tout nouveau centre de recherche de l’Université de Berkeley emmené par l’éminent expert en intelligence artificielle Stuart Russell.

Un sceptique au pays de l’innovation effrénée

Diplômé de Physique à l’Université d’Oxford en 1982 puis de science informatique à Stanford quatre ans plus tard, Stuart Russell est connu et reconnu pour son ouvrage Artificial Intelligence : A Modern Approach, cité plus de 28 000 fois sur Google Scholar. Publié en 2010, ce livre est considéré comme l’un des piliers de la recherche scientifique dans ce domaine. Professeur de science informatique et d’ingénierie à l’Université de Berkeley en Californie, il est également spécialiste en neurologie à l’université de San Francisco et s’interroge notamment sur la raison et la structure de l’intelligence humaine.

S’il s’est spécialisé dans la recherche sur les programmes intelligents dès le début des années 1990, ses dernières publications mettent l’accent sur une problématique qui semble lui être cher : celle de la potentielle dangerosité des machines. Loin d’un scénario apocalyptique digne d’un film de science-fiction, le chercheur interroge ce problème de façon scientifique et rationnelle en pointant les différentes failles qui pourraient être exploitées par des personnes malintentionnées notamment.

Rien qu’en 2016, sur ses dix dernières publications, au moins quatre ont pour thématique principale la question des dangers de l’intelligence artificielle. Loin des déclarations tonitruantes et sur-médiatisées d’un Elon Musk (qui, on le rappelle, malgré ses critiques envers des Google et Apple a tout de même des intérêts privés dans l’avènement de l’IA du fait de ses nombreux investissements dans les nouvelles technologies), Stuart Russell propose justement une remise à plat de la recherche sur l’intelligence artificielle. Dans Who Speaks for IA ?, qui rassemble les différentes réponses apportées à la question par d’éminents chercheurs à l’occasion d’un débat, lui et ses compères demandent plus de coordination et plus de transparence sur les différents projets de recherche :

« Chaque jour, des millions de personnes utilisent des systèmes d’IA que leurs fondateurs présentent comme des miracles. On peut également sentir un climat d’excitation face aux potentiel des technologies IA. Et pourtant, derrière toute cette célébration, des chercheurs dénoncent la fragmentation de la discipline et de sa désorganisation qui fragilisent la communauté IA dans son entier« , peut-on lire en guise d’introduction.

En d’autres termes, une partie du champ académique s’inquiète de voir de nombreux travaux rester dans l’ombre, ce qui empêche de voir le jeu de ses initiateurs mais aussi de faire avancer la science comme il se doit. Par ailleurs, le fait qu’il n’y ait aucune voix légitime pour parler publiquement de la discipline donne le champ libre à quiconque voudrait biaiser le débat sur l’IA en délivrant un discours (qu’il soit critique ou favorable à l’IA) possiblement faussé mais néanmoins médiatisé.

Dans un autre article paru cette année, Russell liste les priorités de la recherche scientifique dans le domaine afin de créer des systèmes intelligents robustes et véritablement bénéfiques, évoquant tour à tour la responsabilité des développeurs pour les actions d’une machine ou bien la sécurité informatique des programmes. Un an plus tôt il écrivait une lettre ouverte dans laquelle il appelait les chercheurs à voir plus loin que le seul objectif de créer des machines plus puissantes et de se concentrer sur de véritables apports de la technologie pour la société. Une lettre rapidement signée par d’illustres scientifiques plus ou moins indépendants (dont Stephen Hawking, Demis Hassabis et Yann LeCun), mais aussi par les plus célèbres entrepreneurs, parmi lesquels Elon Musk, Steve Wozniak (Apple) et Jaan Tallinn, le co-fondateur de Skype. Ils ont également été rejoints par des chercheurs et figures les plus emblématiques du courant transhumaniste comme Nick Bostrom et deux autres membres de la Singularity University.

Plus franc, son dernier article publié en juin dans la revue Scientific American est sans appel. Son titre : « Doit-on avoir peur des robots super-intelligents ?« . D’après lui, « si nous ne sommes pas attentifs, nous pourrions nous retrouver avec des machines intelligentes aux intérêts contraires aux nôtres« .

Création d’un nouveau centre de recherche à Berkeley

Et pour répondre à toutes ces questions fastidieuses et s’assurer que la recherche ne dégénère pas, l’Université de Berkeley a ouvert cette semaine un tout nouveau centre de recherche dédié au développement d’intelligences artificielles compatibles avec l’homme.

Emmené par Stuart Russell, le centre recevra des financements de la part de l’Open Philanthropy Project, du Leverhulme Trust et du Future Life Institute. 5,5 millions de dollars au total pour accélérer la recherche sur les systèmes intelligents bénéfiques aux hommes. Russell sera épaulé dans cette mission par Pieter Abbeel, recruté en avril par OpenAi pour travailler sur le futur robot majordome d’Elon Musk, Anca Dragan et le spécialiste des sciences cognitives Tom Griffiths, tous professeurs à Berkeley. Joseph Halpern de Cornell ainsi que Michael Wellman et Satinder Singh Baveja de l’Université du Michigan seront de la partie. Stuart Russell a également assuré que des économistes et spécialistes des sciences sociales rejoindront l’aventure en cours de route.

D’après lui, le danger est encore assez loin. Pour le moment, les machines ne sont formées qu’à opérer des tâches uniques, commanditées par un opérateur humain comme le nettoyage du sol, ou la tonte du gazon. Mais elles seront difficilement capables de se construire une échelle de priorités, à moins qu’elle ne leur soit expressément communiquée par l »utilisateur.

C’est pourquoi les travaux du centre se concentreront justement sur la garantie que les futurs systèmes intelligents soient dignes de confiance dans toutes les activités qu’ils seront amenés à exécuter à notre place. Ces activités devront être réalisées « en accord avec les valeurs humaines » explique-t-il.

Selon lui, les systèmes informatiques devront rester sous contrôle humain avec des contraintes de comportements clairement définies, malgré la potentielle supériorité future de leurs capacités par rapport aux nôtres. « Nous devons graver ces règles dans la roche, et pas seulement faire des déclarations de bonnes intentions » affirme-t-il. Pour ce faire, lui et son équipe travaillent déjà sur une méthode appelée « apprentissage de renforcement inversé« , qui devrait permettre aux machines d’intégrer les valeurs humaines à leur comportement. Plutôt que d’amener les développeurs logiciels à inculquer directement des règles morales, « ce qui serait probablement une catastrophe« , l’idée est que les « robots observent et apprennent des hommes par eux-mêmes. Et cela passe également par la lecture« . Tout ce que l’Homme a jamais écrit sur les comportements humains doit servir à nourrir ces robots et leur servir de repère.

Le problème étant que les valeurs et leur significations varient considérablement d’un peuple à l’autre et même d’une personne à l’autre. Il sera donc très difficile de les intégrer dans la pratique souligne-t-il. Un robot devra apprendre « à naviguer entre les désirs parfois contradictoires de différentes individus« . Et c’est justement là toute l’importance de la mission que s’est donnée Stuart Russell : garantir qu’un robot soit compatible avec la vie humaine où qu’il se trouve.


Laisser un commentaire

  1. Harzonis

    L'apprentissage implique le mimetisme. Non le mimetisme du geste ou d'un raisonnement mais le mimetisme du rapport que l'homme établit. Par inférence l'IA remonte à la complicité paradoxale du motif et doit être capable de concevoir un process de comportement qui tant à rendre cohérent ce qui est paradoxal. Ainsi, le progrès de l'IA passe de façon incontournable et par priorité par le progrès de l'humanité c'est à dire par sa capacité politique à toutes les échelles des rapports de l'homme à passer du principe de rétention au principe de partage.