Une étude sur le visage de l’IA révèle un nouveau point de basculement choquant pour les humains


Ces visages d’IA sont si réalistes que les humains ne peuvent pas faire la différence, selon une nouvelle étude.

Un deepfake créé avec une application disponible dans le commerce. azusagakuyuki / Twitter

Les ordinateurs sont devenus très, très bons pour générer des images photoréalistes de visages humains.

Qu’est-ce qui pourrait bien se passer ?

Une étude publiée la semaine dernière dans la revue universitaire Proceedings of the National Academy of Sciences confirme à quel point les “visages” produits par l’intelligence artificielle peuvent être convaincants.

Dans cette étude, plus de 300 participants à la recherche ont été invités à déterminer si une image fournie était la photo d’une personne réelle ou un faux visage généré par une I.A. Les participants humains ont eu raison dans moins de la moitié des cas. C’est pire que de jouer à pile ou face.

Les résultats de cette étude révèlent un point de basculement pour les humains, ce qui devrait choquer tous ceux qui pensent être assez avisés pour repérer un faux site Web lorsqu’il est comparé à un vrai.

Si les chercheurs affirment que cette prouesse d’ingénierie “doit être considérée comme un succès pour les domaines de l’infographie et de la vision par ordinateur”, ils encouragent également “ceux qui développent ces technologies à se demander si les risques associés sont supérieurs à leurs avantages”, citant des dangers qui vont des campagnes de désinformation à la création non consensuelle de pornographie synthétique.

“Nous décourageons le développement de technologies simplement parce qu’elles sont possibles”, affirment-ils.

Les visages réels (R) et synthétiques (S) les plus (haut et milieu supérieur) et les moins (bas et milieu inférieur) classés avec précision.

Les réseaux neuronaux deviennent incroyablement bons

Les chercheurs à l’origine de cette étude ont commencé par 400 visages synthétiques générés par un programme d’IA open-source du géant technologique NVIDIA. Le programme est ce que l’on appelle un réseau adversatif génératif, ce qui signifie qu’il utilise une paire de réseaux neuronaux pour créer les images.

Le “générateur” commence par créer une image complètement aléatoire. Le “discriminateur” utilise un vaste ensemble de photos réelles pour donner un feedback au générateur. Au fil des allers-retours entre les deux réseaux neuronaux, le générateur s’améliore à chaque fois, jusqu’à ce que le discriminateur ne puisse plus distinguer les vraies images des fausses.

Il s’avère que les humains ne sont pas meilleurs.

Trois expériences montrent des résultats surprenants

Pour cette étude, les psychologues ont construit un échantillon de 400 images synthétiques, incluant le sexe, l’âge et la race, que l’IA du NVDIA avait créées. Il était composé de 200 hommes et 200 femmes et comprenait 100 visages appartenant à quatre catégories raciales : Noir, Blanc, Asiatique de l’Est et Asiatique du Sud. Pour chacun de ces visages synthétiques, les chercheurs ont choisi une image démographiquement similaire dans les données d’entraînement du discriminateur.

Dans la première expérience, plus de 300 participants ont regardé un échantillon de 128 visages et ont dit s’ils pensaient que chacun était vrai ou faux. Ils n’ont eu raison que dans 48,2 % des cas.

Les participants n’ont cependant pas eu la même difficulté avec tous les visages qu’ils ont regardés. Ils ont eu plus de mal à analyser les visages blancs, probablement parce que les données d’entraînement de l’IA comprenaient beaucoup plus de photos de personnes blanches. Plus de données signifie un meilleur rendu.

Dans la deuxième expérience, un nouveau groupe d’humains a reçu un peu d’aide. Avant d’évaluer les images, ces participants ont reçu un court tutoriel contenant des indices sur la façon de repérer un visage généré par ordinateur. Ils ont ensuite commencé à regarder les images. Après chaque image, ils ont appris s’ils avaient deviné juste ou faux.

Les participants à cette expérience ont fait un peu mieux, avec un score moyen de 59,0 %. Il est intéressant de noter que toute l’amélioration semble provenir du tutoriel, plutôt que de l’apprentissage à partir du feedback. Les participants ont en fait obtenu des résultats légèrement moins bons pendant la deuxième moitié de l’expérience que pendant la première.

Dans la dernière expérience, les participants ont été invités à évaluer le degré de confiance qu’ils accordaient à chacun des 128 visages sur une échelle de un à sept. Les résultats sont étonnants : en moyenne, les visages artificiels semblent 7,7 % plus dignes de confiance que les visages humains.

Pris dans leur ensemble, ces résultats conduisent à la conclusion étonnante que les IA “sont capables et plus dignes de confiance que les vrais visages”, affirment les chercheurs.

Les implications pourraient être énormes

Ces résultats laissent présager des situations étranges en matière de reconnaissance et de mémoire, ainsi qu’un survol complet de l’Uncanny Valley.

Ils signifient que “[n]ul ne peut créer du contenu synthétique sans connaissances spécialisées de Photoshop ou de CGI”, explique Sophie Nightingale, psychologue à l’université de Lancaster et co-auteur de l’étude.

Les chercheurs énumèrent un certain nombre de façons infâmes dont les gens pourraient utiliser ces “deepfakes” qui sont pratiquement impossibles à distinguer des images réelles. Cette technologie, qui fonctionne de manière similaire pour la vidéo et l’audio, pourrait donner lieu à des campagnes de désinformation extraordinairement convaincantes. Prenez la situation actuelle en Ukraine, par exemple. Imaginez la vitesse à laquelle une vidéo montrant Vladimir Poutine – ou Joe Biden – déclarant la guerre à un adversaire de longue date circulerait sur les plateformes sociales. Il pourrait être très difficile de convaincre les gens que ce qu’ils ont vu de leurs propres yeux n’était pas réel.

Une autre préoccupation majeure est la pornographie synthétique, qui montre une personne en train d’accomplir des actes intimes qu’elle n’a jamais faits en réalité.

Cette technologie a également de grandes implications pour les photos réelles.

“La conséquence la plus pernicieuse est peut-être que, dans un monde numérique où toute image ou vidéo peut être truquée, l’authenticité de tout enregistrement gênant ou importun peut être remise en question”, indiquent les chercheurs.

Résumé de l’étude :
Le texte, le son, l’image et la vidéo synthétisés par l’intelligence artificielle (IA) sont utilisés à des fins d’imagerie intime non consensuelle, de fraude financière et de campagnes de désinformation. Notre évaluation du photoréalisme des visages synthétisés par l’IA indique que les moteurs de synthèse ont traversé la vallée de l’inquiétude et sont capables de créer des visages qui sont indiscernables – et plus dignes de confiance – que les visages réels.

Lire aussi : Cette YouTubeuse sud-coréenne n’est pas réelle, c’est le résultat d’une impressionnante technologie Deepfake

Source : Interesting Engineering – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *