“Il ne suffit pas de suspendre le développement de l’IA. Nous devons tout arrêter”


Déclare Eliezer Yudkowsky, théoricien de la décision et chercheur à la Machine Intelligence Research Institute.

Eliezer Yudkowsky

Plus de 1 100 experts en intelligence artificielle, chefs d’entreprise et chercheurs ont signé une pétition appelant les développeurs d’IA à cesser de former des modèles plus puissants que le ChatGPT-4 d’OpenAI pendant au moins six mois.

Parmi ceux qui se sont abstenus de signer la pétition figure Eliezer Yudkowsky, théoricien américain de la décision et chercheur principal à la Machine Intelligence Research Institute. Il travaille sur l’alignement de l’intelligence artificielle générale depuis 2001 et est largement considéré comme l’un des fondateurs de ce domaine.

« Ce moratoire de six mois serait préférable à l’absence de moratoire », écrit M. Yudkowsky dans un article d’opinion publié dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre. »

Yudkowsky pousse la rhétorique à son paroxysme, en écrivant : « Si quelqu’un construit une centrale électrique trop puissante, il n’y a pas de raison de l’arrêter. Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après. »

Voici un extrait de son article :

La question essentielle n’est pas celle de l’intelligence “compétitive avec l’homme” (comme le dit la lettre ouverte) ; il s’agit de savoir ce qui se passe une fois que l’IA a atteint une intelligence supérieure à celle de l’homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l’avance ce qui se passera à ce moment-là, et il semble actuellement imaginable qu’un laboratoire de recherche franchisse les limites critiques sans s’en apercevoir. […] Ce n’est pas que vous ne puissiez pas, en principe, survivre à la création d’un objet beaucoup plus intelligent que vous ; c’est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d’IA composés de gigantesques tableaux impénétrables de nombres fractionnaires. […]

Il s’est écoulé plus de 60 ans entre le moment où la notion d’intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d’aujourd’hui. Résoudre la sécurité d’une intelligence surhumaine – pas une sécurité parfaite, une sécurité dans le sens de “ne pas tuer littéralement tout le monde” – pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l’intelligence surhumaine, c’est que si l’on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L’humanité n’apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d’autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.

Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n’avons pas l’approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l’intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s’appliquent à un pont destiné à accueillir quelques milliers de voitures, l’ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n’y a pas de plan. Les progrès en matière de capacités d’IA sont très, très en avance sur les progrès en matière d’alignement de l’IA ou même sur les progrès en matière de compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
Eliezer Yudkowsky

Eliezer Yudkowsky est un théoricien de la décision américain qui dirige les recherches de l’Institut de recherche sur l’intelligence artificielle (Machine Intelligence Research Institute). Il travaille sur l’alignement de l’intelligence artificielle générale depuis 2001 et est largement considéré comme l’un des fondateurs de ce domaine.

Lire aussi : Elon Musk tire un frein d’urgence sur l’IA et admet un risque pour l’avenir de l’humanité

Sources : Developpez – Eliezer Yudkowsky, Time Magazine

Découvrez une formation gratuite sur la décentralisation pour sortir du système bancaire :

Cliquez sur l’image


Vous aimerez aussi...

1 réponse

  1. Christophe duplan dit :

    Interdire l’IA fort ou bien, simplement, ne la rendre accessible qu’à une certaine “élite” puisqu’elle est source de pouvoir ? (Et pas besoin d’IA pour savoir que le pouvoir, ça ne se partage pas !… )
    Je ne crois pas du tout à l’IA ayant dépassée le cadre de l’aide à la décision, cela parce- que ceux qui finance auront toujours le contrôle des algorithmes. Que d’hypocrisie dans le discourt lu ci-dessus !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *