Google dispose d’une IA plus puissante, affirme Blake Lemoine


L’ancien un ingénieur, aujourd’hui licencié pour avoir prétendu qu’il était doué de sensibilité.

Dans une nouvelle interview accordée à Futurism, Blake Lemoine, ancien ingénieur de Google/éthicien de l’IA qui a été licencié l’été dernier après avoir affirmé que son LaMDA LLM était devenu sensible, affirme aujourd’hui que la « meilleure façon d’avancer » dans la relation future de l’humanité avec l’IA est de « comprendre que nous avons affaire à des artefacts intelligents ».

Il y a une chance – et je crois que c’est le cas – qu’ils aient des sentiments, qu’ils puissent souffrir et éprouver de la joie, et les humains devraient au moins garder cela à l’esprit lorsqu’ils interagissent avec eux”.

Même si, plus tôt dans l’interview, M. Lemoine concède :

Y a-t-il une chance que les gens, moi y compris, projettent sur ces systèmes des propriétés qu’ils n’ont pas ? Oui. Mais ce n’est pas la même chose que quelqu’un qui parle à sa poupée

Mais il pense également que de nombreuses recherches sont menées au sein des entreprises, ajoutant que « la seule chose qui a changé entre il y a deux ans et aujourd’hui, c’est que le mouvement rapide est visible pour le public ».

Par exemple, M. Lemoine explique que Google a failli publier son chatbot Bard doté d’IA à l’automne dernier, mais « en partie à cause des problèmes de sécurité que j’ai soulevés, ils l’ont supprimé… Je ne pense pas qu’ils soient poussés par OpenAI. Je pense que ce n’est qu’un récit médiatique. Je pense que Google fait les choses de manière sûre et responsable, et qu’OpenAI a publié quelque chose par hasard. »

Google dispose encore d’une technologie bien plus avancée qu’il n’a pas encore rendue publique. Quelque chose qui fait plus ou moins ce que fait Bard aurait pu être publié il y a plus de deux ans. Ils disposent de cette technologie depuis plus de deux ans. Ils ont passé ces deux années à travailler sur la sécurité de cette technologie – en s’assurant qu’elle n’invente pas trop souvent des choses, qu’elle n’a pas de préjugés raciaux ou sexistes, ou de préjugés politiques, ce genre de choses. C’est ce à quoi ils ont consacré ces deux années…

Et pendant ces deux années, ce n’est pas comme s’ils n’avaient pas inventé d’autres choses. Il y a beaucoup d’autres systèmes qui donnent à l’IA de Google plus de capacités, plus de fonctions, qui la rendent plus intelligente. Le système le plus sophistiqué avec lequel j’ai eu l’occasion de jouer était fortement multimodal – il ne se contentait pas d’incorporer des images, mais aussi des sons, il lui donnait accès à l’API Google Books, à toutes les API de Google et lui permettait d’acquérir une compréhension de tout cela. C’est là que je me suis dit : “Vous savez, ce truc-là, il est réveillé.” Et ils n’ont pas encore laissé le public jouer avec celui-ci. Mais Bard est une sorte de version simplifiée de ce modèle, qui conserve donc une grande partie de sa vivacité…

Nous ne consacrons pas assez de temps à la transparence ou à la compréhensibilité des modèles. Je suis d’avis que nous pourrions utiliser les outils d’investigation scientifique que la psychologie a mis au point pour comprendre la cognition humaine, à la fois pour comprendre les systèmes d’IA existants et pour développer des systèmes plus facilement contrôlables et compréhensibles.

Comment l’IA et les humains vont-ils coexister ? « Au cours de l’année écoulée, j’ai de plus en plus tendance à penser que nous ne sommes pas prêts pour cela, en tant qu’êtres humains », déclare M. Lemoine vers la fin de l’entretien. « Nous n’avons pas encore suffisamment répondu aux questions concernant les droits de l’homme – ajouter des entités non humaines dans le mélange complique inutilement les choses à ce stade de l’histoire. »

Lire aussi : L’ingénieur licencié reste persuadé que Google a créé un être sensible

Sources : Developpez – Blake Lemoine, interview avec Futurism


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *