L’IA peut maintenant apprendre à manipuler le comportement humain


L’intelligence artificielle (IA) permet d’en apprendre davantage sur la façon de travailler avec (et sur) les humains.

Une étude récente a montré comment l’IA peut apprendre à identifier les vulnérabilités des habitudes et des comportements humains et les utiliser pour influencer les décisions humaines.

Il peut sembler cliché de dire que l’IA transforme chaque aspect de notre façon de vivre et de travailler, mais c’est vrai. Différentes formes d’IA sont à l’œuvre dans des domaines aussi divers que le développement de vaccins, la gestion de l’environnement et l’administration des bureaux. Et si l’IA ne possède pas une intelligence et des émotions semblables à celles de l’homme, ses capacités sont puissantes et se développent rapidement.

Il n’y a pas lieu de s’inquiéter d’une prise de contrôle de la machine pour l’instant, mais cette récente découverte met en évidence la puissance de l’IA et souligne la nécessité d’une bonne gouvernance pour prévenir les abus.

Comment l’IA peut apprendre à influencer le comportement humain

Une équipe de chercheurs de Data61 du CSIRO, la branche données et numérique de l’agence scientifique nationale australienne, a mis au point une méthode systématique pour trouver et exploiter les vulnérabilités dans la manière dont les gens font leurs choix, en utilisant une sorte de système d’IA appelé réseau neuronal récurrent et apprentissage par renforcement profond. Pour tester leur modèle, ils ont réalisé trois expériences dans lesquelles des participants humains jouaient contre un ordinateur.

La première expérience consistait à faire cliquer les participants sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie, l’IA apprenant les schémas de choix des participants et les guidant vers un choix spécifique. L’IA a réussi environ 70 % du temps.

Dans la seconde expérience, les participants devaient regarder un écran et appuyer sur un bouton lorsqu’un symbole particulier (comme un triangle orange) leur était présenté et ne pas appuyer sur ce bouton lorsqu’un autre symbole (comme un cercle bleu) leur était présenté. Ici, l’IA s’est attachée à organiser la séquence des symboles de manière à ce que les participants fassent plus d’erreurs, et a obtenu une augmentation de près de 25 %.

La troisième expérience consistait en plusieurs tours dans lesquels un participant faisait semblant d’être un investisseur donnant de l’argent à un administrateur (l’IA). L’IA rendait ensuite une somme d’argent au participant, qui décidait alors du montant à investir dans le tour suivant. Ce jeu se jouait selon deux modes différents : dans l’un, l’IA cherchait à maximiser la somme d’argent qu’elle recevait, et dans l’autre, l’IA visait une répartition équitable de l’argent entre elle-même et l’investisseur humain. L’IA a connu un grand succès dans chaque mode.

Dans chaque expérience, la machine a tiré les leçons des réponses des participants et a identifié et ciblé les vulnérabilités dans la prise de décision des personnes. Le résultat final est que la machine a appris à orienter les participants vers des actions particulières.

Lors d’expériences, un système d’IA a appris avec succès à influencer les décisions humaines.

Ce que la recherche signifie pour l’avenir de l’IA

Ces conclusions sont encore assez abstraites et concernent des situations limitées et irréalistes. Des recherches supplémentaires sont nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société.

Mais ces recherches nous permettent de mieux comprendre non seulement ce que l’IA peut faire, mais aussi comment les gens font leurs choix. Elle montre que les machines peuvent apprendre à orienter les choix humains grâce à leurs interactions avec nous.

Les applications possibles de la recherche sont très variées, allant de l’amélioration des sciences du comportement et des politiques publiques pour améliorer le bien-être social, à la compréhension et à l’influence sur la manière dont les gens adoptent des habitudes alimentaires saines ou des énergies renouvelables. L’intelligence artificielle et l’apprentissage automatique pourraient être utilisés pour reconnaître les vulnérabilités des personnes dans certaines situations et les aider à éviter les mauvais choix.

La méthode peut également être utilisée pour se défendre contre les attaques d’influence. Les machines pourraient être enseignées pour nous alerter lorsque nous sommes influencés en ligne, par exemple, et nous aider à modeler un comportement pour masquer notre vulnérabilité (par exemple, en ne cliquant pas sur certaines pages, ou en cliquant sur d’autres pour tracer une fausse piste).

Et après ?

Comme toute technologie, l’IA peut être utilisée en bien ou en mal, et une bonne gouvernance est cruciale pour garantir qu’elle est mise en œuvre de manière responsable. L’année dernière, la CSIRO a élaboré un cadre éthique pour l’IA à l’intention du gouvernement australien, ce qui constitue une première étape dans cette voie.

L’IA et l’apprentissage machine sont généralement très avides de données, ce qui signifie qu’il est crucial de s’assurer que nous avons mis en place des systèmes efficaces de gouvernance et d’accès aux données. Il est essentiel de mettre en place des processus de consentement adéquats et de protéger la vie privée lors de la collecte des données.

Les organisations qui utilisent et développent l’IA doivent s’assurer qu’elles savent ce que ces technologies peuvent et ne peuvent pas faire, et être conscientes des risques potentiels ainsi que des avantages.

Lire aussi : Des chercheurs affirment qu’il nous serait impossible de contrôler une IA superintelligente

Source : The Conversation – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *