Il y a 50 % de chances que l’IA finisse par provoquer une catastrophe en raison de son risque majeur pour l’humanité


Avertit Paul Christiano, un ancien chercheur d’OpenAI.

Un ancien chercheur d’OpenAI fait des déclarations inquiétantes sur l’avenir de l’IA et sur le risque imminent qu’elle représente pour la race humaine.

Lors d’une récente apparition sur le podcast Bankless, Paul Christiano a indiqué qu’il prenait très au sérieux la tendance croissante de l’IA générative et que le monde devrait en faire autant, en raison du nombre considérable de risques qui y sont liés.

Il y a 10 à 20 % de chances que le monde de l’IA prenne le dessus et que la plupart des humains meurent, a-t-il expliqué.

Christiano, qui fait partie du célèbre Alignment Research Center, une organisation à but non lucratif, a ajouté qu’il faisait partie de l’équipe chargée des modèles de langage pour OpenAI. Aujourd’hui, il est interrogé sur la probabilité d’une véritable entreprise de destruction selon Eliezer Yudkowsky.

Il était intéressant de voir comment le chercheur continuait à mentionner en termes audacieux qu’une telle technologie à la mode pourrait être un véritable fléau pour le monde entier, et cet avertissement n’est pas nouveau. Il est lancé depuis près de vingt ans.

Christiano a indiqué que son point de vue différait de celui de nombreuses autres personnes en ce qui concerne la vitesse à laquelle la technologie pourrait se développer. Il se trouve qu’elle se trouve dans cette phase de transformation très rapide dont d’autres continuent à parler.

M. Christiano a également expliqué plus en détail qu’il imaginait une transition d’environ un an par rapport à ce que nous voyons aujourd’hui dans les systèmes d’IA, et que cela pourrait devenir une énorme affaire. Il a ajouté que cette accélération du changement est suivie d’une accélération encore plus grande et qu’après avoir vu cela, de nombreuses choses peuvent sembler être des problèmes d’IA, car elles se produisent peu de temps après la mise en place de la technologie d’IA.

Dans l’ensemble, on peut s’approcher d’une probabilité de catastrophe de 50 %, quelques instants après qu’un système d’IA ait atteint le niveau de compatibilité avec l’être humain, a affirmé le chercheur.

Mais n’oubliez pas que ce n’est pas quelque chose de nouveau que nous entendons de la part de Christiano. Il se joint à un grand nombre de voix qui ont été troublées par les développements réalisés dans le domaine de l’IA. Récemment, un groupe d’experts du domaine de l’IA a proposé des signatures pour interrompre temporairement la formation des modèles et des systèmes d’IA.

Ils ont estimé qu’un ralentissement de six mois dans le développement de l’IA était la bonne solution, mais aucune information n’a encore été donnée sur la manière dont le monde s’y adapterait.

Lire aussi : « Je suis un peu inquiet » : Warren Buffett compare l’IA à l’invention de la bombe atomique

Sources : Developpez – Paul Christiano, ancien chercheur chez OpenAI ; Vidéo YouTube de l’intervention de M. Christiano sur le podcast Bankless (https://youtu.be/GyFkWb903aU)


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *