Pourquoi Elon Musk nous met en garde contre l’utilisation abusive de l’IA


Pour le grand public, Elon Musk est un prophète de malheur, car il prédit que l’intelligence artificielle finira par dépasser l’intelligence humaine à tous les égards et que, motivée par son propre intérêt personnel intelligent, l’IA finira par entraîner l’asservissement, voire la disparition de la race humaine.

Comprendre l’IA

Parvenons à nous entendre sur une chose. L’intelligence artificielle n’est pas l’intelligence dans la manière dont nous, en tant qu’êtres humains, la connaissons et l’expérimentons. En tant qu’entités biologiques, nous sommes tous inextricablement (et invisiblement) reliés à une intelligence universelle, fondement de tout ce qui est, qui gouverne la réalité dans laquelle nous vivons. Notre intelligence personnelle est en fait une extension limitée de cette intelligence universelle, chacun d’entre nous en est une facette différente, qui a néanmoins accès à ses possibilités illimitées au fur et à mesure que nous apprenons et évoluons.

Une entité d’intelligence artificielle n’a pas accès à l’intelligence universelle. Elle est limitée à la portée de l’intelligence de la personne qui programme. Et encore une fois limitée par les instructions particulières données par ledit programmeur. D’une certaine façon, c’est une bonne nouvelle. Mais c’est aussi là que les ennuis commencent vraiment.

Auto-amélioration récursive

Lorsqu’on lui demande pourquoi l’IA est dangereuse, Musk répond :

S’il y a une superintelligence – en particulier si elle est engagée dans l’auto-amélioration récursive – et que sa fonction d’optimisation ou d’utilité est quelque chose qui nuit à l’humanité, alors elle aura un très mauvais effet.

L’auto-amélioration récursive se réfère ici aux programmes d’IA qui permettent à l’entité d’IA d’écrire un nouveau code pour elle-même, en fournissant de nouvelles instructions qu’elle peut suivre dans le futur, essentiellement “améliorer” l’exécution de son but ou mission gouvernée de manière algorithmique.

Ce qui est dangereux dans l’auto-amélioration récursive, pour Musk, c’est qu’elle peut avoir des conséquences involontaires. Puisque le programmeur humain n’écrit plus le code et ne réfléchit donc pas sur l’impact des instructions opérationnelles telles qu’elles sont écrites, ces instructions ne tiennent pas compte de la nature de l’expérience humaine et du caractère sacré de la vie humaine.

Limites du programmeur

Le premier problème pour Musk serait donc l’ignorance ou la myopie potentielle des programmeurs d’IA qui, bien qu’ils travaillent avec les meilleures intentions, ne prévoient pas tous les résultats possibles des mécanismes d’auto-amélioration récursive d’une machine.

Le deuxième problème, cependant, est peut-être encore plus dangereux. Il est centré sur la perspective que la recherche et le développement de haut niveau en IA, de par sa nature, peut attirer le type de personnes qui n’ont pas à cœur les intérêts de l’humanité.

Prenez Demis Hassabis, par exemple, l’un des principaux créateurs d’intelligence artificielle avancée et co-fondateur du mystérieux laboratoire londonien DeepMind. Un jour, il a créé un jeu vidéo intitulé ‘Evil Genius’, mettant en vedette un scientifique malveillant qui crée un appareil apocalyptique pour dominer le monde. Bien que ce ne soit pas en soi une mise en accusation du caractère de l’homme, il y a lieu de s’inquiéter de la façon dont la magie technologique de Hassabis et d’autres comme lui se manifestera dans l’autonomisation de la superintelligence artificielle dans nos vies.

Musk en est conscient. Comme le note un article de Vanity Fair, il était un investisseur dans DeepMind, non pas pour un retour sur son argent mais plutôt pour garder un œil sur l’arc de l’IA, lui donnant plus de visibilité sur le rythme accéléré auquel la technologie s’améliorait.

Concentration du pouvoir

Mais même ceci n’est pas la principale préoccupation de Musk. Dans une interview vidéo, Musk souligne comment le contrôle non réglementé de l’IA s’amasse dans les mains d’un petit nombre de puissants. Il décrit une initiative qu’il a lancée pour contrer ce phénomène :

Avec quelques autres, j’ai créé OpenAI, qui est en fait un organisme à but non lucratif, et je pense que la structure de gouvernance est importante ici, parce que vous voulez vous assurer qu’il n’y a pas d’obligation fiduciaire de générer des profits à partir de la technologie d’IA qui est développée.

L’intention avec OpenAI est de démocratiser le pouvoir de l’IA…. La liberté consiste en la distribution du pouvoir et le despotisme consiste en sa concentration, et donc je pense qu’il est important si nous avons ce pouvoir incroyable de l’IA qu’il ne soit pas concentré dans les mains d’un petit nombre, et potentiellement conduire à un monde dont nous ne voulons pas.

Lorsqu’on lui a demandé de décrire les dangers actuels d’une telle concentration de pouvoir, Musk a déclaré qu’il n’y avait qu’une seule “entreprise” qui l’inquiétait, mais il n’a même pas osé la nommer. Bien sûr, cette société était Google, qui a acheté DeepMind dans le cadre de sa campagne de shopping IA en 2014.

Ce n’est pas la machine.

Le plus gros de l’avertissement de Musk aux gens (et la raison de son initiative OpenAI) n’est pas tant qu’une direction par ailleurs démocratique et bien intentionnée perdra le contrôle de son fonctionnement de l’IA, mais que le fonctionnement de l’IA sera sous le contrôle de la règle despotique :

Musk : Je ne connais pas beaucoup de gens qui aiment l’idée de vivre sous un despote.

Interviewer : Et le despote serait l’ordinateur ?

Musk : (ironique) Ou les personnes qui contrôlent l’ordinateur.

Source : Collective Evolution


Vous aimerez aussi...

2 réponses

  1. zantafio dit :

    L’IA ne fonctionne que si il y a de l’électricité. si l’IA pose problème il suffit de débrancher le jus.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *