Un document de Microsoft affirme que le GPT-4 a du bon sens et peut raisonner comme les humains


Selon les chercheurs de Microsoft, le GPT-4 présente des signes d’intelligence générale artificielle (IAG).

L’avancée la plus remarquable dans le domaine de l’intelligence artificielle a été l’avènement des grands modèles de langage (LLM), qui sont formés sur des quantités massives de données et peuvent prédire le mot suivant dans une phrase partielle. Mais aujourd’hui, les scientifiques affirment que ces nouveaux LLM peuvent être entraînés à raisonner et à faire preuve de bon sens comme les humains.

Il s’agit d’une avancée considérable dans le domaine de l’IA.

Une équipe de chercheurs de Microsoft, l’entreprise qui a investi des milliards de dollars dans OpenAI, a eu accès à ChatGPT-4 avant son lancement public. Ils ont donc joué avec la technologie et ont ensuite publié un article de 155 pages qui contient des détails intéressants.

Dans cet article, l’équipe de recherche déclare que GPT-4 est une étape importante vers l’intelligence générale artificielle (IAG), que l’équipe définit comme un système capable de raisonner, de planifier et d’apprendre par l’expérience au même niveau que les humains, voire à un niveau supérieur.

L’IA a dessiné une licorne

Afin de démontrer la différence entre un véritable apprentissage et la mémorisation, l’équipe a demandé à GPT-4 deux « Dessine une licorne dans TikZ » trois fois en l’espace d’un mois. Dans son article, l’équipe a publié les illustrations suivantes réalisées par GPT-4 :

Trois résultats différents à l’invitation « Dessine une licorne dans TikZ » en l’espace d’un mois. Bubeck et al

Nous pouvons constater une nette évolution dans la sophistication des dessins de GPT-4, a déclaré l’équipe.

« J’ai commencé par être très sceptique, et cela a évolué vers un sentiment de frustration, d’agacement, voire de peur », a déclaré Peter Lee, qui dirige les recherches chez Microsoft, au New York Times. On se dit : « Mais d’où cela vient-il ? »

L’équipe note que bien que le GPT-4 soit purement un modèle de langage étendu, la première version avait des capacités remarquables dans différents domaines et tâches tels que l’abstraction, la compréhension, le codage, la vision, les mathématiques, le droit, la compréhension des motivations humaines, la médecine et même les émotions.

Même s’il présente encore des lacunes comme les hallucinations, la création de résultats qui ne sont pas réels et les erreurs d’arithmétique de base, l’équipe affirme que le GPT-4 a fait de grands progrès dans l’application du bon sens.

L’équipe de recherche a également donné une autre consigne à GPT-4 : Pouvez-vous écrire une preuve qu’il y a une infinité de nombres premiers, avec chaque ligne qui rime ?

M. Bubeck, ancien professeur de l’université de Princeton, qui faisait partie de l’équipe de recherche, a déclaré au New York Times que la preuve poétique de GPT-4 était impressionnante, tant sur le plan mathématique que linguistique, et qu’il n’arrivait pas à comprendre s’il discutait avec une IA ou un humain. « À ce moment-là, je me suis demandé ce qui se passait : Qu’est-ce qui se passe ? »

Scepticisme à l’égard de l’article

Les chercheurs, bien qu’émerveillés par les capacités du modèle d’apprentissage automatique, sont également sceptiques. Ils écrivent dans leur article : « Nous reconnaissons que cette approche est quelque peu subjective et informelle, et qu’elle peut ne pas satisfaire aux normes rigoureuses de l’évaluation scientifique. »

Maarten Sap, chercheur et professeur à l’université Carnegie Mellon, abonde dans le même sens et se montre très critique à l’égard de l’article : « L’article ‘Sparks of A.G.I.’ est un exemple de certaines de ces grandes entreprises qui cooptent le format de l’article de recherche pour en faire un argument de relations publiques. Elles reconnaissent littéralement dans l’introduction de leur article que leur approche est subjective et informelle et qu’elle peut ne pas satisfaire aux normes rigoureuses de l’évaluation scientifique. »

Lire aussi : « L’atteinte d’une forme d’intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d’après le PDG de Google Deepmind

Source : Interesting Engineering – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. pierre dit :

    Rien à voir avec le “raisonnement humain” qui est à la fois une analyse intellectuelle et un ressenti émotionnel, sans QE, pas d’humanité

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *