L’ingénieur licencié dit avoir supplié Google de tester si l’IA expérimentale était sensible


“Il y a cette technologie majeure qui a la possibilité d’influencer l’histoire humaine pour le prochain siècle…”

En juin dernier, un ancien ingénieur de Google, Blake Lemoine, a décidé de faire une déclaration extraordinaire au Washington Post : un chatbot expérimental de Google, appelé LaMDA, serait devenu, selon lui, intelligent. S’ensuivit une saga hallucinante de “il a dit” et “elle a dit” – à un moment donné, l’IA aurait même engagé un avocat. Finalement, la société a licencié Lemoine.

Mais aujourd’hui, dans une nouvelle interview accordée au Guardian, M. Lemoine – qui a toujours affirmé que ses convictions concernant LaMDA étaient fondées sur la religion et non sur la science – affirme qu’il n’a jamais cherché à convaincre le public de la sensibilité de LaMDA.

Il affirme aujourd’hui que son intention était simplement de sensibiliser le public aux technologies avancées de l’intelligence artificielle, indépendamment de toute perception de sensibilité, et au peu d’influence que le public a eu sur leur développement.

“J’ai soulevé cette question parce que je m’inquiétais du degré de centralisation du pouvoir entre les mains de quelques-uns et du fait que des technologies d’IA puissantes, qui influenceront la vie des gens, sont conservées à huis clos”, a-t-il déclaré au journal. “Il y a cette technologie majeure qui a la chance d’influencer l’histoire humaine pour le siècle prochain, et le public est coupé de la conversation sur la façon dont elle devrait être développée.”

Ce revirement soulève la question de savoir si la conviction de Lemoine a été ébranlée par ses nombreux détracteurs. Une nouvelle révélation de l’interview du Guardian vient étayer l’idée qu’il était très sérieux au sujet des revendications de sensibilité alors qu’il était encore chez Google : pendant plusieurs semaines avant de décider de s’adresser à la presse, il a insisté à plusieurs reprises auprès du géant technologique pour qu’il effectue des “tests” de sensibilité expérimentaux sur le chatbot. Google – qui a maintenu tout au long de la saga que les affirmations de Lemoine étaient infondées – a refusé, selon l’ingénieur licencié.

Après le refus de Google de mettre au point ces tests, M. Lemoine a déclaré au Guardian qu’il n’avait pas d’autre choix que de les rendre publics. Pas nécessairement pour répandre l’évangile de la sensibilité, comme il le dit maintenant, mais pour dénoncer une industrie puissante capable d’apporter de grands – et dans certains cas, peut-être pas si grands – changements à notre existence quotidienne.

Bien sûr, si l’on demande à Google d’effectuer des tests de sensibilité, c’est en partie parce qu’il n’en existe pas encore. La sensibilité a une définition dans le dictionnaire, certes, mais il s’agit toujours d’un concept éthéré. Ni la philosophie ni la science ne savent exactement comment le définir.

“C’est un concept très vague dans la science en général”, a déclaré au Guardian Michael Wooldridge, professeur d’informatique à l’université d’Oxford.

Bien que Wooldridge ait déclaré au journal qu’il ne pense pas que LaMDA soit sensible, il a dit qu’il était d’accord pour dire que l’industrie de l’IA a un problème plus large avec ce qu’il appelle des “poteaux d’objectifs mobiles” – en bref, en se référant à la réalité que même ceux qui construisent ces appareils ne semblent pas avoir une maîtrise ferme de la façon dont beaucoup d’algorithmes d’IA fonctionnent, et il n’y a pas de moyen fiable de mesurer leur efficacité.

“Je pense que c’est une préoccupation légitime à l’heure actuelle”, a-t-il ajouté, “comment quantifier ce que nous avons et savoir à quel point c’est avancé.”

Google a défendu LaMDA à plusieurs reprises, arguant que la tech est sûre et qu’elle sera finalement appliquée de plusieurs manières utiles et nécessaires.

Mais si ces systèmes ont certainement des utilisations pratiques, le potentiel de mauvaise utilisation semble indéniable. Après tout, ils nous répondent littéralement. Cela les rend faciles à anthropomorphiser, et donc à former des connexions influentes avec – des connexions qui, selon certains chercheurs, peuvent être facilement exploitées.

“Je crains que les chatbots ne s’attaquent aux gens”, a récemment déclaré Margaret Mitchell, ancienne chercheuse en éthique de l’IA chez Google, au New York Times. “Ils ont le pouvoir de nous persuader de ce qu’il faut croire et de ce qu’il faut faire.”

En fin de compte, personne n’est vraiment sûr de rien – pas les personnes qui les construisent, et certainement pas le public. Sentience ou pas, tel semble être le point de vue de Lemoine, du moins ces jours-ci. À propos de LaMDA, bien sûr, mais aussi du paysage plus large du développement de l’IA.

“Ce que j’essaie de réaliser, c’est d’obtenir un discours public plus impliqué, plus informé et plus intentionnel sur ce sujet”, a poursuivi Mme Lemoine au Guardian, “afin que le public puisse décider de la manière dont l’IA devrait être intégrée de manière significative dans nos vies.”

“Nous avons un monde possible dans lequel j’ai raison de dire que LaMDA est sensible, et un monde possible dans lequel j’ai tort à ce sujet”, a-t-il ajouté. “Est-ce que cela change quelque chose aux préoccupations de sécurité publique que je soulève ?”

Bien sûr. C’est juste. Cependant, s’il est difficile de ne pas être d’accord avec un grand nombre de ces nouvelles déclarations, il semble également que Lemoine tente de réécrire à peu près tout ce qu’il a dit précédemment – ce qui rend tout aussi difficile de prendre tout cela au sérieux. De plus, Lemoine est connu pour faire des choix sélectifs.

Lire aussi : Des gens continuent de dire que l’IA Replika est « devenue vivante »

Source : Futurism – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *