Des chercheurs ont développé un robot avec une « forme primitive d’empathie »


Si les robots doivent un jour interagir socialement avec les humains, ils devront d’abord développer la capacité de la théorie de l’esprit (Theory of Mind en anglais [ToM]), qui implique la capacité d’empathie avec les autres.

Bien que le développement de systèmes d’intelligence artificielle (IA) avec une cognition aussi avancée reste encore à faire, des chercheurs de l’université de Columbia ont réussi à créer un robot avec ce qu’ils appellent la « théorie visuelle du comportement ». Décrivant leur travail dans la revue Scientific Reports, les auteurs de l’étude expliquent que ce trait pourrait bien être apparu chez les animaux comme un précurseur évolutif de la ToM, et pourrait représenter une étape majeure vers la création d’une IA dotée de capacités sociales complexes.

La théorie de l’esprit est une caractéristique majeure de la cognition humaine et on pense qu’elle apparaît chez la plupart des enfants vers l’âge de trois ans. Elle nous permet de comprendre les besoins et les intentions de ceux qui nous entourent, et facilite donc des activités sociales complexes telles que jouer à des jeux à règles fixes, entrer en compétition dans les affaires, et même se mentir les uns aux autres.

En général, la ToM repose sur le raisonnement symbolique, par lequel le cerveau analyse explicitement les données d’entrée afin de prédire les actions futures d’une autre personne, généralement en utilisant le langage. Cela ne peut être réalisé qu’en utilisant un impressionnant équipement neural comme un cortex préfrontal – quelque chose que tous les humains possèdent mais qui est bien trop avancé pour les robots.

Cependant, les auteurs de l’étude émettent l’hypothèse que certains de nos ancêtres évolutionnaires ont peut-être développé une capacité à prédire implicitement les actions d’autrui en les visualisant simplement dans leur esprit, bien avant que la capacité de raisonnement symbolique explicite n’émerge. Ils appellent cette faculté « théorie visuelle du comportement » et s’emploient à la recréer dans un système d’IA

Pour ce faire, ils ont programmé un robot pour qu’il se déplace continuellement vers l’un des deux points verts de son champ visuel, en optant toujours pour celui qu’il jugeait le plus proche des deux. Parfois, les chercheurs ont empêché le robot de voir la tache verte la plus proche en l’obscurcissant avec un bloc rouge, ce qui a provoqué le déplacement du gadget vers la tache qui était la plus éloignée.

Une deuxième IA a passé deux heures à observer ce premier robot qui accomplissait continuellement la tâche. Ce robot observateur avait une vue d’ensemble de la scène et pouvait donc toujours voir les deux points verts. Finalement, cette IA s’est penchée exactement sur ce qui se passait et a développé la capacité de prédire ce que le premier robot ferait, simplement en regardant la disposition des points verts et du bloc rouge.

L’IA de l’observateur a pu prévoir l’objectif et les actions du premier robot avec une précision de 98,45 %, malgré son manque de capacité de raisonnement symbolique.

« Nos conclusions commencent à démontrer comment les robots peuvent voir le monde du point de vue d’un autre robot. La capacité de l’observateur à se mettre à la place de son partenaire, pour ainsi dire, et à comprendre, sans être guidé, si son partenaire pouvait ou non voir le cercle vert de son point de vue, est peut-être une forme primitive d’empathie », a expliqué l’auteur de l’étude, Boyuan Chen, dans une déclaration.

Cette capacité de traitement de l’image est évidemment plus primitive que le traitement du langage ou d’autres formes de raisonnement symbolique, mais les auteurs de l’étude spéculent qu’elle pourrait avoir agi comme un tremplin évolutif vers la ToM chez les humains et d’autres primates.

« Nous supposons que peut-être, nos ancêtres primates ont aussi appris à traiter une forme de prédiction de comportement sous une forme purement visuelle, bien avant qu’ils n’apprennent à articuler des visions mentales internes dans le langage », expliquent-ils dans leur article.

Lire aussi : Un capteur d’étirement donne aux robots des sensations humaines

Source : IFLScience – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. Bruno dit :

    IA du boulot :) avec les humains … qui continuent obstinément à ne pas s’immerger dans l’expérimentation, qu’il réalisent : aveugles à eux-mêmes, mmmh

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *