Une main bionique intuitive grâce à l’intelligence artificielle

main-bionique-ia

Des chercheurs de l’Université de Newcastle ont mis au point une main bionique qui utilise l’intelligence artificielle pour voir ce qu’elle porte.

Une main bionique qui peut voir par elle-même les objets qu’elle manipule rend incontestablement ces derniers plus faciles à saisir. Grâce à de l’intelligence artificielle, cette prothèse peut choisir la meilleure façon automatique de saisir des objets placés devant elle. Ainsi, quand elle voit un objet, la main détecte l’intention de saisir en interprétant les signaux électriques des muscles du bras de l’utilisateur. Celle-ci prend alors une image de l’objet par le biais d’une webcam et choisit l’une des quatre positions de saisie possibles.

main-bionique-ia-1

La main a été développée par des bio-ingénieurs de l’Université de Newcastle (Royaume-Uni) qui ont modifié une main myo-électrique NHS standard avec une caméra pour fournir aux amputés des membres supérieurs une prothèse plus fonctionnelle. Les différentes poignées, aidées par des capteurs sur la surface de la peau, peuvent ramasser une tasse, prendre une télécommande avec un ou deux doigts, ou en utilisant uniquement le pouce et l’index. Et ce en détectant l’activité électrique des muscles du porteur. « La main apprend la meilleure façon de saisir les objets », confirme Ghazal Ghazaei, l’auteur principal de la recherche.

Pour ce faire, l’équipe de Newcastle a dû enseigner à la prothèse comment reconnaître différentes formes et choisir la poignée à utiliser, à l’aide de plus de 500 objets visualisés dans différents angles et arrière-plans. Suite aux essais et aux erreurs, le système a ensuite intégré les meilleurs saisies possibles. « Nous avons montré à l’ordinateur une image, par exemple, d’un bâton. Mais pas seulement une image, de nombreuses images du même bâton à partir de différents angles et orientations, même sous différentes lumières et contre différents horizons et, finalement, l’ordinateur apprend à quel point il faut le saisir », explique Ghazal Ghazaei. Avant de poursuivre : « Donc, l’ordinateur ne correspond pas seulement à une image. C’est apprendre à reconnaître des objets et à les regrouper selon le type de saisie que la main doit effectuer pour la récupérer avec succès. C’est ce qui lui permet d’évaluer avec précision et de ramasser un objet qu’il n’a jamais vu auparavant. C’est un grand pas en avant dans le développement des membres bioniques ».

« Une main capable de réagir sans penser »

Au tour du Dr Kianoush Nazarpour, co-auteur du document et professeur de génie biomédical à l’Université de Newcastle, de renchérir : « En utilisant la vision par ordinateur, nous avons développé une main bionique qui peut répondre automatiquement. Tout comme une main réelle, l’utilisateur peut toucher et ramasser une tasse ou un biscuit avec rien de plus qu’un simple coup d’œil dans la bonne direction. La réactivité a été l’une des principales barrières aux membres artificiels. Pour de nombreux amputés, le point de référence est leur bras ou jambe saine, de sorte que les prothèses semblent lentes et lourdes en comparaison. Maintenant, pour la première fois depuis un siècle, nous avons développé une main intuitive capable de réagir sans penser ».

main-bionique-ia-2

Ce nouveau système reste pour l’heure qu’un prototype. Mais l’équipe de Newcastle croit tenir dans ses mains une prothèse qui va enfin bien plus loin que les précédentes non dotées de cette option visuelle. Un petit nombre d’amputés ont déjà testé la nouvelle technologie, à l’instar de Doug Mc Intosh, qui a perdu son bras droit en 1997. Ce dernier a déclaré que cette nouvelle main réactive développée est un « énorme bond en avant ». Les personnes participantes aux tests ont pu saisir une gamme d’objets avec une précision autour de 90%. « Nous visons une précision de 100% », précise Ghazal Ghazaei. Les chercheurs espèrent y parvenir en essayant différents algorithmes. Ils prévoient également une version plus légère avec la caméra intégrée dans la paume de la main.

Selon Dario Farina de l’Imperial College de Londres, l’enjeu, avec des prothèses de ce type, est d’obtenir l’équilibre juste entre le contrôle de l’utilisateur et l’ordinateur : « Les gens ne veulent pas se sentir comme un robot, ils veulent avoir l’impression qu’ils maîtrisent complètement. Cela devrait être similaire à l’assistance au freinage sur une voiture. Le conducteur décide quand freiner mais la voiture les aide à mieux freiner ». Tout est dit.


Laisser un commentaire