L’IA pourrait devenir une menace plus importante que les armes nucléaires, prévient un ancien PDG de Google


“Nous ne sommes pas prêts pour les négociations dont nous avons besoin”, affirme M. Schmidt.

L’ancien PDG de Google, Eric Schmidt, a lancé une mise en garde audacieuse : l’avancée incontrôlée de l’intelligence artificielle (IA) pourrait faire boule de neige et déboucher sur un conflit mondial de destruction mutuelle, un peu comme l’impact potentiel de la course aux armes nucléaires qui a explosé pendant la guerre froide.

S’exprimant au Forum d’Aspen sur la sécurité le 22 juillet, M. Schmidt affirme que les puissances mondiales ne sont tout simplement pas prêtes à négocier sur la manière de gérer les progrès croissants de l’IA. En retour, cela pourrait affaiblir davantage la confiance entre deux superpuissances qui se bousculent, comme les États-Unis et la Chine, et même glisser vers un conflit.

Citant le pouvoir des technologies de l’information, il poursuit en expliquant que des puissances géopolitiques comme la Chine et les États-Unis doivent entamer une conversation sur la réglementation de l’IA et établir des traités sur cette technologie.

Cependant, il indique qu’il est actuellement difficile de savoir comment une telle négociation se déroulerait, car les deux parties diplomatiques devraient faire appel à des personnes ayant une connaissance technique approfondie de l’IA et de son avenir potentiel.

“Disons que nous voulons discuter avec la Chine d’une sorte de traité sur les surprises de l’IA. C’est très raisonnable. Comment nous y prendrions-nous ? Qui, au sein du gouvernement américain, travaillerait avec nous ? Et c’est encore pire du côté chinois. Qui devons-nous appeler ? […] Nous ne sommes pas prêts pour les négociations dont nous avons besoin”, affirme M. Schmidt.

Avec la paranoïa géopolitique qui monte dans le monde entier, il suggère que cette situation est similaire à la course aux armements nucléaires de la guerre froide – mais avec une surveillance inquiétante moins importante qu’auparavant.

“Dans les années 50 et 60, nous avons fini par mettre au point un monde où il y avait une règle ‘sans surprise’ pour les essais nucléaires et où ils ont fini par être interdits. Lorsque quelqu’un lance un missile, pour un test ou autre, il en informe tout le monde. Chacun utilise alors son système de défense antimissile pour observer et entraîner les systèmes”, explique-t-il.

“C’est un exemple d’équilibre de confiance ou de manque de confiance : c’est une règle ‘sans surprise’. Je suis très préoccupé par le fait que la vision américaine de la Chine comme étant corrompue ou communiste ou autre, et la vision chinoise de l’Amérique comme étant défaillante, permettront aux gens de dire ‘Oh mon dieu, ils préparent quelque chose’, et ensuite de commencer une sorte d’énigme. Commencer une sorte de chose où, parce que vous vous armez ou vous vous préparez, vous déclenchez alors l’autre côté”, a déclaré Schmidt.

On ne sait pas exactement à quoi Schmidt fait allusion ici, mais il part du principe que de nombreuses puissances mondiales ne savent pas ce que leurs adversaires potentiels préparent, du moins en ce qui concerne l’IA.

Si une puissance, à tort ou à raison, commençait à soupçonner sa rivale de développer des armes autonomes d’IA, on peut imaginer que la tension monterait et qu’elle pourrait ressentir le besoin de se procurer de telles armes. Tout ceci n’est qu’une expérience de pensée pour l’instant, mais Schmidt soutient que c’est quelque chose que le monde doit considérer de toute urgence avant qu’il ne soit trop tard.

Schmidt n’est pas le seul à lancer des avertissements. Même Elon Musk – qui s’oppose généralement à l’intervention du gouvernement, à moins que vous n’incluiez les subventions pour ses propres entreprises – a également été une voix éminente appelant à une plus grande réglementation de l’IA.

“Nous n’avons personne qui travaille sur ce sujet et pourtant l’IA est si puissante”, a prévenu Schmidt.

Lire aussi : « L’intelligence artificielle va surpasser l’humain dans 5 ans », d’après Elon Musk

Source : IFLScience – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *