Singularité : Comment les gouvernements peuvent faire face à la montée d’une IA hostile et super intelligente


L’invention d’une superintelligence artificielle est un thème central de la science-fiction depuis au moins le XIXe siècle.

gouvernements-IA-sécurité

De la nouvelle d’E.M. Forster La machine s’arrête (1909) à la récente série télévisée Westworld de HBO, les auteurs ont eu tendance à dépeindre cette possibilité comme un désastre absolu. Mais ce n’est plus une question de fiction. D’éminents scientifiques et ingénieurs contemporains craignent aujourd’hui qu’une super IA puisse un jour dépasser l’intelligence humaine (un événement connu sous le nom de “singularité”) et devenir la pire erreur de l’humanité.

Les tendances actuelles suggèrent que nous sommes sur le point d’entrer dans une course internationale aux armements pour une telle technologie. Quelle que soit l’entreprise de haute technologie ou le laboratoire gouvernemental qui réussira à inventer la première super IA, il obtiendra une technologie potentiellement dominante dans le monde. C’est un prix à gagner. Donc, pour ceux qui veulent mettre un terme à une telle course, la question est de savoir comment décourager ce genre de course aux armements, ou au moins inciter les équipes concurrentes à ne pas prendre de risques en matière d’IA.

Une super IA soulève deux défis fondamentaux pour ses inventeurs, comme l’ont souligné le philosophe Nick Bostrom et d’autres. L’un est un problème de contrôle, qui consiste à s’assurer que la super IA a les mêmes objectifs que l’humanité. Sans cela, l’intelligence pourrait délibérément, accidentellement ou par négligence détruire l’humanité – un “désastre IA”.

Le second est un problème politique, à savoir comment faire en sorte que les avantages d’une super-intelligence ne profitent pas uniquement à une petite élite, ce qui entraîne des inégalités sociales et de richesse massives. Si une course aux armements se produit, cela pourrait amener des groupes concurrents à ignorer ces problèmes afin de développer leur technologie plus rapidement. Cela pourrait conduire à une super IA de mauvaise qualité ou inamicale.

Une solution suggérée est d’utiliser la politique publique pour rendre plus difficile la participation à la course afin de réduire le nombre de groupes concurrents et d’améliorer les capacités de ceux qui y participent. Moins il y aura de concurrents, moins il y aura de pression pour réduire les coûts afin de gagner. Mais comment les gouvernements peuvent-ils réduire la concurrence de cette façon ?

Mon collègue Nicola Dimitri et moi-même avons récemment publié un article qui tentait de répondre à cette question. Nous avons d’abord montré que dans une course typique, comme celle qui consiste à construire la première super IA, seules les équipes les plus compétitives participeront. C’est parce que la probabilité d’inventer la super IA est très faible et que l’inscription à la course est très coûteuse en raison de l’investissement important en recherche et développement nécessaire.

C’est d’ailleurs ce qui semble être la situation actuelle avec le développement de l’IA plus simple et plus “étroite”. Les demandes de brevet pour ce type d’IA sont dominées par un petit nombre d’entreprises, et la majeure partie de la recherche en IA se fait dans seulement trois régions (les États-Unis, la Chine et l’Europe). Il semble également qu’il y ait très peu de groupes, voire aucun, qui investissent actuellement dans la construction d’une super IA.

Cela suggère que la réduction du nombre de groupes concurrents n’est pas la priorité la plus importante pour l’instant. Mais même avec un plus petit nombre de concurrents dans la course, l’intensité de la concurrence pourrait encore conduire aux problèmes mentionnés ci-dessus. Ainsi, pour réduire l’intensité de la concurrence entre les groupes qui s’efforcent de créer une super IA et d’accroître leurs capacités, les gouvernements pourraient se tourner vers les marchés publics et les taxes.

gouvernements-IA-course

Les gouvernements pourraient encourager l’intégration de l’intelligence humaine et artificielle.

Les marchés publics désignent tout ce que les gouvernements paient aux entreprises privées pour qu’elles fournissent, qu’il s’agisse de logiciels destinés à être utilisés par les organismes gouvernementaux ou de contrats de prestation de services. Les gouvernements pourraient imposer des contraintes à tout fournisseur de super IA qui leur demanderait de s’attaquer aux problèmes potentiels et de soutenir des technologies complémentaires pour améliorer le renseignement humain et l’intégrer à l’IA.

Mais les gouvernements pourraient également proposer d’acheter une version moins que meilleure de super IA, en créant effectivement un “deuxième prix” dans la course aux armements et en l’empêchant d’être une compétition où le vainqueur gagne tout. Avec un prix intermédiaire, qui pourrait être pour avoir inventé quelque chose qui se rapproche (mais pas exactement) d’une super IA, les groupes concurrents seront incités à investir et à coopérer davantage, réduisant ainsi l’intensité de la concurrence. Un deuxième prix réduirait également le risque d’échec et justifierait davantage d’investissements, ce qui contribuerait à accroître les capacités des équipes en compétition.

En ce qui concerne les taxes, les gouvernements pourraient fixer le taux d’imposition du groupe qui invente la super IA en fonction du degré d’amitié ou d’hostilité de l’IA. Un taux d’imposition suffisamment élevé signifierait essentiellement la nationalisation de la super IA. Cela découragerait fortement les entreprises privées de faire des économies de peur de perdre leur produit au profit de l’État.

Le bien public et non le monopole privé

Cette idée pourrait nécessiter une meilleure coordination mondiale de la fiscalité et de la réglementation de la super IA. Mais tous les gouvernements n’auraient pas besoin d’être impliqués. En théorie, un seul pays ou une seule région (comme l’UE) pourrait supporter les coûts et les efforts nécessaires pour s’attaquer aux problèmes et à l’éthique de la super IA. Mais tous les pays en bénéficieraient et la super IA deviendrait un bien public plutôt qu’un monopole privé irrépressible.

Bien sûr, tout cela dépend du fait que la super IA soit réellement une menace pour l’humanité. Et certains scientifiques ne pensent pas que ce sera le cas. Nous pourrions naturellement éliminer les risques de super IA avec le temps. Certains pensent même que les humains pourraient fusionner avec l’IA.

Quoi qu’il en soit, notre planète et ses habitants bénéficieront énormément du fait que nous tirerons le meilleur parti de l’IA, une technologie qui en est encore à ses balbutiements. Pour ce faire, nous devons mieux comprendre le rôle que le gouvernement peut jouer.

Lire aussi : Vous pensiez que les IA ne pourraient jamais remplacer l’imagination humaine ?

Source : The Conversation – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *