Un scientifique de haut niveau de Facebook prépare discrètement des IA « autonomes »


C’est aussi cool qu’effrayant.

Alors que le reste de l’entreprise est mandaté pour travailler à la réalisation des rêves métavers de Mark Zuckerberg, le chef de l’intelligence artificielle de Facebook élabore discrètement une feuille de route vers une intelligence machine “autonome”.

Ainsi, Yann LeCun, chef de l’intelligence artificielle de Meta et informaticien de renom, a publié un article au début de l’été – et l’a présenté la semaine dernière à Berkeley – qui décrit le manque de “bon sens” dans les efforts actuels en matière d’intelligence artificielle et propose une voie vers de futures itérations qui “apprennent aussi efficacement que les humains et les animaux” à mesure qu’elles deviennent de plus en plus autonomes.

Le bon sens, tel que décrit par LeCun, est un ensemble de “modèles du monde” qui permettent aux humains et aux animaux de prédire si des événements sont probables ou improbables, plausibles ou invraisemblables, et possibles ou impossibles.

“Un système de conduite autonome pour voitures peut nécessiter des milliers d’essais d’apprentissage par renforcement pour apprendre qu’une conduite trop rapide dans un virage aura un mauvais résultat, et pour apprendre à ralentir pour éviter de déraper”, écrit le chercheur pionnier en IA. “En revanche, les humains peuvent s’appuyer sur leur connaissance intime de la physique intuitive pour prédire de tels résultats, et éviter largement les plans d’action fatals lors de l’apprentissage d’une nouvelle compétence.”

Pour combler le fossé entre les nombreuses itérations d’essais et d’erreurs nécessaires pour former les réseaux neuronaux et la nature “intuitive” de la connaissance organique, LeCun propose de réoutiller la méthodologie de formation des algorithmes pour apprendre plus efficacement et ainsi développer un composite du bon sens que nous, les humains, considérons comme acquis.

Même si cela n’a pas l’air très sexy, il faudra probablement quelque chose qui s’apparente à l’intuition pour faire passer l’IA de son état actuel – certes impressionnant, mais dans des domaines plus restreints – à quelque chose de plus proche de l’intelligence humaine.

“C’est un problème pratique, car nous voulons vraiment des machines dotées de bon sens”, a déclaré M. LeCun lors de son intervention à Berkeley fin septembre. “Nous voulons des voitures à conduite autonome, nous voulons des robots domestiques, nous voulons des assistants virtuels intelligents.”

Parce qu’il est un scientifique, l’architecture d’entraînement des algorithmes de prochaine génération du chef de l’IA de Meta implique un tas de pièces mobiles, comme un système qui reproduit la mémoire à court terme, un autre qui enseigne l’autocritique aux réseaux neuronaux, et la mise en place d’un module “configurateur” qui synthétise toutes les entrées en informations utiles. Voici son schéma :

Ensemble, ces composants sont censés aider l’intelligence artificielle à reproduire les processus de l’esprit humain – une perspective aussi fascinante que terrifiante.

Le fait que le principal chercheur en IA de Meta fasse discrètement circuler un document sur la façon de transformer l’IA en “penseurs” autonomes est en soi une histoire extrêmement intrigante, et compte tenu de ce qu’il espère réaliser, cela pourrait même être une énorme aubaine pour le géant technologique en difficulté.

Lire aussi : Ces scientifiques estiment qu’une intelligence artificielle avancée finira par avoir de très mauvaises intentions envers l’humanité

Source : Futurism – Traduit par Anguille sous roche


Vous aimerez aussi...

2 réponses

  1. Fielio dit :

    Ceci confirme que le concept de conscience – de soi et de son environnement – est un paramètre que les ingénieurs en IA n’ont toujours pas ajouté à leur boîte à outils. Un homme doté de capacités cognitives mais dépourvu de conscience (si toutefois ça peut exister) serait ni plus ni moins qu’un zombie incapable d’agir autrement que sous l’effet de stimuli externes, dans le sens où il lui serait impossible de prendre une quelconque décision, c’est-à-dire d’orienter son action dans un but précis. C’est ce que représente une IA, qui est par nature inconsciente et ne fait qu’exécuter son programme en n’ayant aucune idée de ce qu’elle est en train de faire. Et pour qu’elle se mette à penser il faudrait, encore une fois, qu’elle soit consciente. Il est ahurissant qu’après plusieurs générations, les ingénieurs en IA n’aient toujours pas compris la différence entre intelligence et conscience, d’où l’impasse dans laquelle ils se trouvent.

    • Maewan dit :

      Exact. J´ajouterai que c´est surtout le symptôme d´un état d´esprit humain pathologiquement malade qui se prend pour Dieu. Les IA resteront des jouets dépendant de leurs mécaniciens. Ces fous délirants finiront dans la errance d´eux-mêmes.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *