Les personnes qui n’existent pas semblent plus réelles que les personnes réelles, selon une étude


Même si vous pensez être doué pour l’analyse des visages, des recherches montrent que de nombreuses personnes ne peuvent pas distinguer de manière fiable les photos de visages réels des images générées par ordinateur.

Cela est particulièrement problématique maintenant que les systèmes informatiques peuvent créer des photos d’apparence réaliste de personnes qui n’existent pas.

Récemment, un faux profil LinkedIn avec une photo de profil générée par ordinateur a fait la une des journaux parce qu’il a réussi à entrer en contact avec des responsables américains et d’autres personnes influentes sur la plateforme de réseautage, par exemple. Les experts en contre-espionnage affirment même que les espions créent régulièrement des profils fantômes avec de telles photos pour cibler des cibles étrangères sur les médias sociaux.

Ces faux profonds sont de plus en plus répandus dans la culture quotidienne, ce qui signifie que les gens devraient être plus conscients de la façon dont ils sont utilisés dans le marketing, la publicité et les médias sociaux. Ces images sont également utilisées à des fins malveillantes, telles que la propagande politique, l’espionnage et la guerre de l’information.

Ces visages réalistes ont tous été générés par un ordinateur. (NVIDIA/thispersondoesnotexist.com)

Pour les réaliser, il faut recourir à ce que l’on appelle un réseau neuronal profond, un système informatique qui imite la façon dont le cerveau apprend. Ce réseau est “entraîné” en l’exposant à des ensembles de données de plus en plus importants de visages réels.

En fait, deux réseaux neuronaux profonds sont opposés l’un à l’autre et rivalisent pour produire les images les plus réalistes. C’est ainsi que les produits finaux sont surnommés “images GAN” (Generative Adversarial Networks). Le processus génère de nouvelles images qui ne se distinguent pas statistiquement des images d’entraînement.

Dans notre étude publiée dans iScience, nous avons montré que l’incapacité à distinguer ces visages artificiels des vrais a des répercussions sur notre comportement en ligne. Notre recherche suggère que les fausses images peuvent éroder notre confiance envers les autres et changer profondément la façon dont nous communiquons en ligne.

Mes collègues et moi-même avons constaté que les gens percevaient les visages GAN comme étant encore plus vrais que les photos authentiques de visages réels. Bien que l’on ne sache pas encore très bien pourquoi, cette découverte met en évidence les progrès récents de la technologie utilisée pour générer des images artificielles.

Nous avons également constaté un lien intéressant avec l’attractivité : les visages jugés moins attrayants étaient également considérés comme plus réels.

Les visages moins attrayants peuvent être considérés comme plus typiques et le visage typique peut être utilisé comme une référence par rapport à laquelle tous les visages sont évalués. Par conséquent, ces visages GAN sembleraient plus réels parce qu’ils sont plus proches des modèles mentaux que les gens ont construits à partir de leur vie quotidienne.

Mais le fait de considérer ces visages artificiels comme authentiques peut également avoir des conséquences sur le niveau général de confiance que nous accordons à un cercle de personnes inconnues – un concept connu sous le nom de “confiance sociale”.

Nous nous fions souvent trop aux visages que nous voyons, et les premières impressions que nous nous faisons guident nos interactions sociales. Dans une deuxième expérience faisant partie de notre dernière étude, nous avons constaté que les gens étaient plus susceptibles de faire confiance aux informations transmises par des visages qu’ils avaient précédemment jugés réels, même s’ils étaient générés artificiellement.

Il n’est pas surprenant que les gens accordent plus de confiance aux visages qu’ils croient réels. Mais nous avons constaté que la confiance était érodée une fois que les gens étaient informés de la présence potentielle de visages artificiels dans les interactions en ligne. Ils ont alors montré des niveaux de confiance plus faibles, dans l’ensemble – indépendamment du fait que les visages étaient réels ou non.

Ce résultat pourrait être considéré comme utile à certains égards, car il rend les gens plus méfiants dans un environnement où de faux utilisateurs peuvent opérer. D’un autre point de vue, cependant, il peut éroder progressivement la nature même de notre mode de communication.

En général, nous avons tendance à supposer par défaut que les autres personnes sont fondamentalement véridiques et dignes de confiance. L’augmentation du nombre de faux profils et d’autres contenus artificiels en ligne soulève la question de savoir dans quelle mesure leur présence et les connaissances que nous en avons peuvent modifier cet état de “vérité par défaut”, et finir par éroder la confiance sociale.

Changer nos valeurs par défaut

La transition vers un monde où il est impossible de distinguer ce qui est réel de ce qui ne l’est pas pourrait également modifier le paysage culturel, qui passerait d’un état de vérité à un état d’artificialité et de tromperie.

Si nous remettons régulièrement en question la véracité de ce que nous vivons en ligne, cela pourrait nous obliger à redéployer notre effort mental du traitement des messages eux-mêmes au traitement de l’identité du messager. En d’autres termes, l’utilisation généralisée de contenus en ligne très réalistes, mais artificiels, pourrait nous obliger à penser différemment, d’une manière inattendue.

En psychologie, nous utilisons un terme appelé “contrôle de la réalité” pour désigner la manière dont nous identifions correctement si quelque chose provient du monde extérieur ou de l’intérieur de notre cerveau. L’avancée des technologies capables de produire des visages, des images et des appels vidéo faux, mais très réalistes, signifie que le contrôle de la réalité doit se fonder sur des informations autres que nos propres jugements.

Il convient également de se demander si l’humanité peut encore se permettre de se fier à la vérité.

Il est essentiel que les gens soient plus critiques lorsqu’ils évaluent des visages numériques. Il peut s’agir d’utiliser des recherches d’images inversées pour vérifier l’authenticité des photos, de se méfier des profils de médias sociaux contenant peu d’informations personnelles ou un grand nombre d’adeptes, et d’être conscient du potentiel d’utilisation de la technologie deepfake à des fins néfastes.

La prochaine étape dans ce domaine devrait consister à améliorer les algorithmes de détection des faux visages numériques. Ces algorithmes pourraient ensuite être intégrés aux plateformes de médias sociaux pour nous aider à distinguer le vrai du faux lorsqu’il s’agit du visage de nos nouveaux contacts.

Lire aussi : Quelque chose dans les yeux révèle si vous regardez une personne qui n’existe pas

Source : The Conversation – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. Maewen dit :

    Apprenez ou réapprenez à observer le monde vivant et vous détecterez assez facilement que ces images sont artificielles. La matière, fut-elle pixellisée a une teneur archi affinée, reste la matière. Elle a une âme, ce que n’ont absolument aucune image virtuelle. Observez bien celles qu’on vous propose et entraînez-vous avec des visages publiés en ligne, vous serez étonné de votre capacité à détecter le faux !

Répondre à Maewen Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *