Cinq experts partagent ce qui leur fait le plus peur au sujet de l’IA

Une intelligence artificielle sophistiquée pourrait rendre le monde meilleur. Elle pourrait nous permettre de lutter contre le cancer et d’améliorer les soins de santé partout dans le monde, ou simplement nous libérer des tâches subalternes qui dominent nos vies.

C’était le principal sujet de conversation le mois dernier lorsque les ingénieurs, les investisseurs, les chercheurs et les décideurs se sont réunis à la Joint Multi-Conference on Human-Level Artificial Intelligence.

Mais il y avait aussi un courant sous-jacent de peur qui a traversé certaines des discussions. Certaines personnes craignent de perdre leur emploi à cause d’un robot ou d’une ligne de code ; d’autres craignent une révolte des robots. Où est la ligne de démarcation entre l’alarmisme et l’inquiétude légitime ?

Dans un effort pour séparer les deux, Futurism a demandé à cinq experts de l’IA ce qu’ils craignent le plus d’un avenir avec l’intelligence artificielle avancée. Leurs réponses, ci-dessous, ont été légèrement éditées.

Espérons qu’avec leurs préoccupations à l’esprit, nous serons en mesure d’orienter la société dans une meilleure direction – une direction dans laquelle nous utiliserons l’IA pour toutes les bonnes choses, comme la lutte contre les épidémies mondiales ou l’éducation d’un plus grand nombre de personnes, et moins les mauvaises choses.

Q : Quand vous pensez à ce que nous pouvons faire – et à ce que nous serons capables de faire – avec l’IA, qu’est-ce que vous trouvez le plus troublant ?

Kenneth Stanley, professeur à l’Université de Floride Centrale, directeur principal de l’ingénierie et membre du personnel scientifique des laboratoires Uber AI

Je pense que la préoccupation la plus évidente est lorsque l’IA est utilisée pour blesser des gens. Il y a beaucoup d’applications différentes où vous pouvez imaginer cela. Nous devons faire très attention à ne pas laisser sortir ce mauvais côté. Trier comment garder l’IA responsable est une question très délicate ; elle a beaucoup plus de dimensions que la simple dimension scientifique. Cela signifie que toute la société doit être impliquée pour y répondre.

Sur la façon de développer une IA sans danger :

Toutes les technologies peuvent être utilisées pour le mal, et je pense que l’IA n’est qu’un autre exemple de cela. Les humains ont toujours eu du mal à ne pas laisser les nouvelles technologies être utilisées à des fins néfastes. Je pense que nous pouvons le faire : nous pouvons mettre en place les bons freins et contrepoids pour être plus sûrs.

Je ne pense pas savoir exactement ce que nous devrions faire à ce sujet, mais je peux nous mettre en garde de prendre [notre réponse aux impacts de l’IA] très soigneusement et graduellement et d’apprendre au fur et à mesure que nous avançons.

Iralki Beridze, directeur de centre d’intelligence artificielle et de robotique de l’UNICRI, Nations Unies

Je pense que la chose la plus dangereuse avec l’IA est son rythme de développement. Selon la vitesse à laquelle elle se développera et la vitesse à laquelle nous pourrons nous y adapter. Et si nous perdons cet équilibre, nous pourrions avoir des ennuis.

Sur le terrorisme, la criminalité et les autres sources de risque :

À mon avis, les applications dangereuses de l’IA seraient des criminels ou de grandes organisations terroristes qui s’en serviraient pour perturber de vastes processus ou tout simplement faire du tort. Les terroristes pourraient causer du tort par la guerre numérique, ou il pourrait s’agir d’une combinaison de robotique, de drones, d’IA et d’autres choses qui pourraient être très dangereuses.

Et, bien sûr, d’autres risques découlent de choses comme les pertes d’emplois. Si un grand nombre de personnes perdent leur emploi et ne trouvent pas de solution, ce sera extrêmement dangereux. Des choses comme les systèmes d’armes autonomes mortels devraient être régies correctement – sinon, il y a un énorme potentiel d’utilisation abusive.

Sur la façon d’aller de l’avant :

Mais c’est la dualité de cette technologie. Certes, ma conviction est que l’IA n’est pas une arme ; l’IA est un outil. C’est un outil puissant, et cet outil puissant pourrait être utilisé pour de bonnes ou de mauvaises choses. Notre mission est de veiller à ce que cette information soit utilisée à bon escient, à ce qu’on en retire le plus d’avantages possible et à ce que la plupart des risques soient compris et atténués.

John Langford, chercheur principal chez Microsoft

Je pense qu’on devrait faire attention aux drones. Je pense que les drones automatisés sont potentiellement dangereux à bien des égards… Le calcul à bord des armes sans pilote n’est pas assez efficace pour faire quelque chose d’utile en ce moment. Mais dans cinq ou dix ans, j’imagine qu’un drone pourrait avoir à son bord suffisamment de calcul pour être réellement utile. Vous pouvez voir que les drones sont déjà utilisés dans la guerre, mais ils sont [toujours sous contrôle humain]. Il n’y a aucune raison qu’ils ne puissent pas avoir un système d’apprentissage et être raisonnablement efficaces. C’est quelque chose qui m’inquiète beaucoup.

Hava Siegelmann, responsable des programmes du bureau de la technologie des microsystèmes chez DARPA

Toutes les technologies peuvent être utilisées pour le mal. Je pense que c’est entre les mains de ceux qui l’utilisent. Je ne pense pas qu’il y ait une mauvaise technologie, mais il y aura des gens mauvais. Il s’agit de savoir qui a accès à la technologie et comment nous l’utilisons.

Tomas Mikolov, chercheur scientifique à Facebook AI

Quand il y a beaucoup d’intérêt et de financement autour de quelque chose, il y a aussi des gens qui en abusent. Je trouve troublant que certaines personnes vendent de l’IA avant même que nous n’y arrivions, et prétendent savoir quel [problème il résoudra].

Ces étranges startups sont aussi prometteuses de choses qui sont d’excellents exemples d’intelligence artificielle lorsque leurs systèmes optimisent à l’excès un chemin unique dont tout le monde ne se souciait peut-être même pas avant (comme un chatbot qui est juste un peu mieux que la dernière version). Et peut-être qu’après avoir passé des dizaines de milliers d’heures de travail, en sur-optimisant une valeur unique, certaines de ces start-ups arrivent avec ces grandes prétentions qu’elles ont réussi quelque chose que personne ne pouvait faire auparavant.

Mais soyons honnêtes, je ne veux pas nommer les nombreuses percées récentes de ces groupes dont personne ne se souciait auparavant, et qui ne génèrent pas d’argent. Ce sont plutôt des tours de magie. Surtout ceux qui considèrent l’IA comme une simple sur-optimisation d’une seule tâche qui est très étroite et il n’y a aucun moyen pour eux de s’adapter à autre chose que des problèmes très simples.

Quelqu’un qui est même un peu critique à l’égard de ces systèmes rencontrerait rapidement des problèmes qui iraient à l’encontre des nobles revendications de l’entreprise.

Source : Futurism

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *