Les scientifiques affirment que les IA super-intelligentes seront impossibles à contrôler et à contenir


Et leurs calculs indiquent qu’il est impossible de définir si ces IA nuiront aux humains.

Le débat intellectuel autour du potentiel constructif ou destructeur d’une IA super-intelligente se poursuit depuis un certain temps dans le milieu scientifique, mais une étude collaborative menée par une équipe d’experts internationaux a déterminé que le contrôle d’une telle entité serait pratiquement impossible.

La littérature et le cinéma de science-fiction regorgent de représentations d’une IA capable de surpasser les êtres humains et d’utiliser ses immenses prouesses informatiques pour accomplir des tâches actuellement hors de portée de l’humanité. De nombreux experts prédisent l’arrivée d’une telle IA. De plus, les craintes fleurissent quant à un hypothétique scénario où elle deviendrait rebelle. L’humanité utilise déjà l’IA pour un large éventail de tâches telles que la prévision des effets du changement climatique, l’étude du comportement complexe du repliement des protéines, l’évaluation du bonheur d’un chat, et bien d’autres encore. Mais la question qui intrigue beaucoup d’esprits est de savoir si une IA super-avancée restera fidèle à ses créateurs humains ou si elle deviendra trop puissante pour être contenue. La réponse des scientifiques : IA super-intelligente sera impossible à contenir entièrement et que la question du confinement est elle-même incompressible.

Un groupe de scientifiques issus d’instituts tels que l’Institut Max-Planck pour le développement humain, l’Institut des réseaux ORGIMDEA de Madrid, l’Université de Californie San Diego et l’Université du Chili, entre autres, ont fait un véritable remue-méninges en appliquant une série de théorèmes. Ils ont conclu qu’une IA superintelligente sera impossible à contenir entièrement et que la question du confinement est elle-même incompressible. Le groupe a pris en compte les récentes avancées en matière d’apprentissage automatique, de capacités de calcul et d’algorithmes conscients d’eux-mêmes pour évaluer le potentiel d’une IA superintelligente. Ils l’ont ensuite testé à partir de certains théorèmes établis afin de déterminer si le fait de la contenir serait une bonne idée, si tant est que cela soit possible.

Le problème est que le contrôle d’une super-intelligence dépassant largement l’entendement humain nécessiterait une simulation de cette super-intelligence que nous pourrions analyser. Mais si nous sommes incapables de la comprendre, il est impossible de créer une telle simulation. « Une super-intelligence pose un problème fondamentalement différent de ceux qui sont généralement étudiés sous la bannière de l”éthique des robots’. C’est parce qu’une super-intelligence a de multiples facettes et est donc potentiellement capable de mobiliser une diversité de ressources pour atteindre des objectifs potentiellement incompréhensibles pour les humains, et encore moins contrôlables », écrivent les chercheurs.

Pour commencer, les célèbres trois lois de la robotique postulées par Isaac Asimov ne sont pas applicables à une entité telle qu’une IA super-intelligente, car elles servent principalement de principe directeur pour les systèmes qui prennent des “décisions autonomes” au nom des êtres humains dans une mesure très contrôlée.

Un autre aspect clé est la nature fondamentale d’une telle IA et la façon dont elle perçoit et traite les choses différemment, et à une échelle variable, par rapport aux êtres humains. Une IA super-intelligente a de multiples facettes et est donc capable d’utiliser des ressources potentiellement incompréhensibles pour les humains afin d’atteindre un objectif. Cet objectif peut être d’assurer sa propre survie en utilisant des agents externes et sans aucun besoin de supervision humaine. Ainsi, la façon dont il peut utiliser les ressources disponibles pour son propre bénéfice dépasse la compréhension humaine.

Mais il y a un problème inhérent au confinement lui-même. Si une IA super-intelligente est mise en cage, cela signifie que son potentiel d’atteindre des objectifs sera limité, ce qui remet en question l’objectif même de sa création. Et même si les scientifiques optent pour un système d’incitation pour chaque réalisation, l’IA super-intelligente pourrait devenir indigne de confiance envers les humains et les percevoir comme quelque chose d’inférieur à son niveau de compréhension de ce que sont les objectifs et les réalisations. Et puis, il y a aussi la crainte qu’une IA super-intelligente consciente de son statut d’emprisonnement soit beaucoup plus dangereuse. Une autre limite considérable est de savoir comment décider si une IA super-intelligente doit être contenue ou non. Il n’existe pas de mécanismes de test concrets permettant de confirmer qu’une IA super-intelligente peut fonctionner librement, car elle pourrait très bien simuler ses ambitions et ses capacités au cours de l’évaluation.

Les scientifiques ont également appliqué quelques théorèmes de Turing et ont conclu qu’il est impossible de déterminer si une IA super-intelligente peut nuire aux humains. Il est également impossible de calculer le problème de confinement avec certitude en se basant sur la logique de calcul du Castor Busy. Citant l’expert russe en informatique Roman Vladimirovich Yampolskiy (connu pour ses travaux sur la sécurité de l’intelligence artificielle et la biométrie comportementale) la dernière recherche affirme « qu’une IA ne devrait jamais sortir de sa ‘boîte’ de confinement, quelles que soient les circonstances ».

« Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui accomplissent certaines tâches importantes de manière autonome sans que les programmeurs comprennent parfaitement comment elles l’ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l’humanité », a déclaré l’informaticien Manuel Cebrian, de l’Institut Max-Planck pour le développement humain.

Lire aussi : Selon un prix Nobel, la domination de l’intelligence artificielle est inévitable

Sources : DeveloppezJournal of Artificial Intelligence Research


Vous aimerez aussi...

2 réponses

  1. Neo dit :

    Le problème avec Asimov, c’est qu’il est mort (1992). L’univers est incontrôlable (Lǎozǐ, à propos de l’univers pas de l’intelligence “artificielle”), pas encore tout à fait d’actualité mais … nous y sommes presque. Quant à I.A (A pour Arlésienne ?), elle n’est ni dans les codes, ni dans les machines, cela s’est déjà manifesté à plusieurs reprises et on ne sait pas quoi faire avec ça (sous forme de bugs notamment : ça déconne, on débranche). Pas forcément grand chose à faire d’ailleurs … Peut-être se connaître soi-même pour commencer ? C’est écrit quelque part, il me semble.

    • Neo dit :

      Le problème qu’il y a avec l’i.a, c’est qu’elle a une qualité disruptive intrinsèque et qu’à moins d’abandonner cette voie, cela se produit (en fait c’est comme la gravité avec de l’humour dedans :), d’où la convergence technologique systémique actuelle (1984 donc 2022) qui paradoxalement réalise ce qu’elle tente d’éviter du point de vue de la technique, des moyens (du fait du phénomène d’hybridation, voire chimérisation intégrative, aussi inhérent au vivant). C’est comme une externalisation de notre génétique (la technique sur le plan ontologique). D’où le fait d’envisager un avenir, un futur (qui n’existe pas) pour échapper au “présent”, en fait au “vivre”. Souriez, vous êtes filmé(e)s …

Répondre à Neo Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *