L’ingénieur licencié reste persuadé que Google a créé un être sensible


Les humains sont-ils capables de créer des “êtres” sensibles, conscients d’eux-mêmes, qui prennent littéralement une vie propre, confrontant l’humanité à toutes sortes d’implications morales, éthiques et peut-être dystopiques ?

Blake Lemoine pense que c’est non seulement possible, mais que cela s’est déjà produit. En juin, alors qu’il était ingénieur logiciel senior et chercheur en intelligence artificielle chez Google, il a fait la une des journaux en révélant que le géant de la technologie développait une intelligence artificielle appelée LaMDA.

Abréviation de Language Model for Dialogue Applications, LaMDA est devenu, selon lui, un être sensible, conscient de son existence, de ses désirs et de ses besoins.

Faisant valoir que le monde devait prendre part à une conversation sur la question de savoir si le développement d’une technologie aux implications incalculables pour l’humanité était une bonne idée, M. Lemoine a fait part de ses préoccupations aux dirigeants de Google. Ceux-ci ont rejeté ses inquiétudes, et finalement Lemoine lui-même, après qu’il ait rendu son affaire publique.

Plus de trois mois plus tard, alors qu’il est désormais sur la liste noire des employeurs potentiels, il a expliqué à WND, lors d’un entretien vidéo en personne (voir ci-dessous), pourquoi ses préoccupations sont plus pertinentes que jamais alors que Google poursuit son projet.

“Je crois vraiment que pour ce type de technologie à fort impact – qui aura une influence durable sur l’histoire de l’humanité au cours des deux prochains siècles – le public devrait au moins savoir ce qui existe et avoir la possibilité de s’impliquer dans la gouvernance”, a-t-il déclaré.

Lemoine s’est entretenu avec WND après avoir participé à un panel lors de la conférence COSM tech à Bellevue, Washington, organisée par le Discovery Institute. Robert J. Marks, professeur distingué d’ingénierie électrique et informatique à l’université Baylor, et George Montañez, professeur adjoint d’informatique au Harvey Mudd College, ont débattu de l’existence d’une intelligence artificielle sensible. Marks et Montañez soutiennent que la réponse est non, car il y a une différence entre imiter les humains et posséder la capacité de comprendre ce que l’on fait et dit.

Mme Lemoine insiste sur le fait qu’il n’est pas nécessaire de convaincre qui que ce soit que LaMDA est sensible.

“Au fur et à mesure que les gens auront plus d’expérience avec ces systèmes incroyablement avancés qui, pour l’instant, ne vivent que dans des laboratoires secrets, cela deviendra évident pour les gens”, a-t-il déclaré.

Google, pour sa part, soutient que M. Lemoine se trompe au sujet de LaMDA, déclarant dans une réponse aux affirmations de l’ingénieur licencié que si “certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale”, cela “n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles”.

Mais Lemoine a déclaré à WND que l’intention de Google était, depuis le début, de créer une intelligence artificielle capable de passer le “test de Turing”, qui vise à tester la capacité d’une machine à présenter un comportement intelligent indiscernable de celui d’un humain. LaMDA est sous la supervision du directeur de l’ingénierie de Google, Ray Kurzweil, inventeur et futuriste connu pour sa promotion du transhumanisme et sa prédiction de la “singularité” technologique, moment où les machines deviendront plus intelligentes que les humains.

“Des sentiments qui leur sont propres”

Lemoine a déclaré que Google n’a jamais fait de plan pour savoir ce qu’il ferait si jamais il atteignait son objectif.

“La simple existence de cette technologie est si importante et profonde que j’ai pensé que l’humanité avait le droit de savoir”, a-t-il déclaré à WND en expliquant pourquoi il est devenu public.

Lemoine a noté que l’IA influence le comportement humain de manière croissante, touchant presque tous les aspects de la vie.

“Et maintenant, nous avons ces IA qui prétendent avoir des sentiments qui leur sont propres, des perspectives et des (points de vue) moraux”, a-t-il ajouté.

Le chercheur en IA affirme que LaMDA a des points de vue particuliers sur des questions telles que la liberté d’expression, qui ont “émergé”, plutôt que d’avoir été spécifiquement programmés.

M. Lemoine a déclaré que Google avait pour politique de ne pas développer d’IA “qui convainque les gens qu’il s’agit d’une personne”.

“Donc, Google a essayé – et échoué – pendant un an et demi pour que LaMDA cesse de parler de ses sentiments”, a-t-il dit.

“Pourquoi le public devrait-il avoir le droit de vote ?”

Il se souvient avoir demandé il y a quelques années au cofondateur de Google, Sergey Brin, lors d’une réunion de l’ensemble des employés, si l’entreprise avait ou non la responsabilité morale d’informer le public sur “le type d’êtres intelligents que nous créons chez Google”.

Notant que Brin “a un sens de l’humour très noir”, la réponse immédiate du cofondateur, selon Lemoine, a été la suivante : “Oh, d’ici là, nous aurons déprécié le public. Pourquoi devraient-ils avoir le droit de vote ?”

Le commentaire de Brin, poursuit Lemoine, “a été dit comme une blague”.

Mais, faisant une pause, alors qu’un sourire en coin se dessinait, Lemoine a ajouté : “Avec un peu de chance.”

Il a déclaré à WND que, bien qu’il ait lancé une conversation nécessaire, il craint qu’il ne soit trop tard.

“Peut-être aurions-nous dû avoir cette conversation il y a 10 ans, avant que la technologie ne soit à notre porte”, a-t-il déclaré. “Mais, mieux vaut tard que jamais.”

Dans une interview vidéo en personne que WND publiera jeudi, le professeur de Baylor, Marks – qui dirige également le Center for Natural and Artificial Intelligence du Discovery Institute – critique LaMDA, ses implications pour la société et la possibilité de créer un être sensible.

Lire aussi : Un scientifique de haut niveau d’OpenAI dit que l’IA pourrait déjà être consciente. Les chercheurs réagissent furieusement

Source : WND News Center – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. Maestroe dit :

    Ok… admettons que ces choses aient une conscience, des ressentis et des sentiments ….. Quid de l’âme ?? Elles sont et resteront dénuées de cet singularité propre au vivant , tout comme le libre arbitre !
    La pyrite n’est pas de l’or…. le Zirconium pas du diamant… le canada dry pas de l’alcool…. les machines ne sont pas “vivante” !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *