C’est vraiment dur de donner du bon sens à l’IA


Chez l’humain, le bon sens est relativement facile à identifier, mais un peu difficile à définir. Faire la queue en bout de file ? C’est du bon sens. Attrapez le bout rouge vif d’un tisonnier de métal qui était dans le feu ? Pas tant que ça.

Comment enseigner quelque chose d’aussi nébuleux que le bon sens à l’intelligence artificielle ? De nombreux chercheurs ont tenté de le faire et ont échoué.

Mais cela pourrait bientôt changer. Aujourd’hui, Paul Allen, co-fondateur de Microsoft, rejoint leurs rangs.

Allen investit 125 millions de dollars supplémentaires dans son laboratoire d’informatique à but non lucratif, le Allen Institute for Artificial Intelligence (AI2), doublant son budget pour les trois prochaines années, selon le New York Times. Cet afflux d’argent servira à financer des projets existants ainsi que le Projet Alexandria, une nouvelle initiative axée sur l’enseignement du “bon sens” aux robots.

Lorsque j’ai fondé AI2, je voulais étendre les capacités de l’intelligence artificielle par la recherche à fort impact”, a déclaré Allen dans un communiqué de presse. “Au début de la recherche sur l’IA, on s’est beaucoup concentré sur le bon sens, mais ce travail a stagné. L’IA manque encore de ce que la plupart des enfants de 10 ans possèdent : le simple bon sens. Nous voulons relancer cette recherche pour faire des percées majeures dans ce domaine.”

Les machines peuvent imiter les tâches humaines si elles sont suffisamment spécifiques. Elles peuvent localiser et identifier des objets, grimper, vendre des maisons, fournir des secours en cas de catastrophe et bien plus encore.

Cependant, même ces machines avancées ne peuvent pas gérer plus que de simples questions et commandes. Comment l’une d’elles peut-elle aborder une situation inconnue et faire preuve de “bon sens” pour calibrer l’action et la réponse appropriées ? Pour l’instant, c’est impossible.

“Malgré les récents succès de l’IA, le bon sens (qui est trivialement facile pour les gens) est remarquablement difficile pour l’IA”, a déclaré Oren Etzioni, PDG d’AI2, dans le communiqué de presse. “Aucun système d’intelligence artificielle actuellement déployé ne peut répondre de façon fiable à un large éventail de questions simples, telles que : ‘Si je mets mes chaussettes dans un tiroir, seront-elles toujours là demain ?’ ou ‘Comment savoir si un carton de lait est plein ?'”

“Par exemple, lorsque AlphaGo a battu le numéro un mondial des joueurs de Go en 2016, le programme ne savait pas que le Go est un jeu de société”, a ajouté Etzioni.

Il y a une raison simple pour laquelle nous n’avons pas réussi à enseigner le bon sens de l’IA jusqu’à maintenant : c’est vraiment, vraiment difficile.

Gary Marcus, le fondateur de la Geometric Intelligence Company, s’est inspiré de la façon dont les enfants développent le bon sens et un sens de la pensée abstraite. Les chercheurs de l’Imperial College London se sont concentrés sur l’IA symbolique, une technique dans laquelle un humain marque tout pour une IA.

Aucune des deux stratégies n’a jusqu’à présent abouti à ce que nous pourrions définir comme du “bon sens” pour les robots.

Le Projet Alexandria adoptera une approche beaucoup plus solide du problème. Selon le communiqué de presse, il intégrera le raisonnement des machines de recherche et la vision par ordinateur, et trouvera un moyen de mesurer le bon sens. Les chercheurs ont également l’intention de s’inspirer du bon sens des humains.

Gary Marcus, fondateur du laboratoire d’intelligence artificielle Geometric Intelligence, a déclaré dans le communiqué de presse : “Le moment est venu d’aborder le problème sous un angle nouveau.”

La tâche est gigantesque. Mais si l’IA doit atteindre un niveau supérieur d’utilité et d’intégration de toutes les facettes de la vie humaine, nous devrons le surmonter. Le Projet Alexandria pourrait être le meilleur moyen d’y parvenir.

Source : Futurism


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *