La technologie “Deepfake” permet désormais de créer des visages humains vraiment réels


Une nouvelle étude de chercheurs de Nvidia montre à quel point la technologie de génération d’images artificielles a évolué ces dernières années.

  • En 2014, les chercheurs ont introduit une nouvelle approche pour générer des images artificielles grâce à ce qu’on appelle un réseaux adverses génératifs.
  • Les chercheurs de Nvidia ont combiné cette approche avec ce qu’on appelle le transfert de style pour créer des images de visages humains générées par l’IA.
  • Cette année, le Département de la défense a déclaré qu’il avait mis au point des outils conçus pour détecter les vidéos dites “deepfakes”.

Un nouvel article de chercheurs de Nvidia montre à quel point la technologie de génération d’images d’IA a progressé au cours des dernières années. Les résultats sont assez surprenants.

Prenez l’image ci-dessous. Pouvez-vous dire quels visages sont réels ?

technologie Deepfake

Karros et al.

En fait, toutes les images ci-dessus sont fausses, et elles ont été produites par ce que les chercheurs appellent un générateur de style, qui est une version modifiée de la technologie conventionnelle utilisée pour générer automatiquement des images. Pour résumer rapidement :

En 2014, un chercheur nommé Ian Goodfellow et ses collègues ont rédigé un article décrivant un nouveau concept d’apprentissage machine appelé réseaux adverses génératifs. L’idée, en termes simplifiés, consiste à dresser deux réseaux neuronaux l’un contre l’autre. On agit comme un générateur qui regarde, disons, des photos de chiens et fait de son mieux pour créer une image de ce à quoi il pense qu’un chien ressemble. L’autre réseau agit comme un discriminateur qui essaie de distinguer les fausses images des vraies.

Au début, le générateur peut produire des images qui ne ressemblent pas à des chiens, alors le discriminateur les rejette. Mais le générateur sait maintenant un peu où il s’est trompé, donc l’image suivante qu’il crée est légèrement meilleure. Ce processus se poursuit jusqu’à ce que, en théorie, le générateur crée une bonne image du chien.

Ce que les chercheurs de Nvidia ont fait, c’est d’ajouter à leur réseaux adverses génératifs quelques principes de transfert de style, une technique qui consiste à recomposer une image dans le style d’une autre. Dans le transfert de style, les réseaux de neurones examinent plusieurs niveaux d’une image afin d’établir une distinction entre le contenu de l’image et son style, par exemple, la fluidité des lignes, l’épaisseur du trait de pinceau, etc.

Voici quelques exemples de transfert de style.

technologie Deepfake

technologie Deepfake

Dans l’étude de Nvidia, les chercheurs ont pu combiner deux images réelles de visages humains pour générer un composite des deux. Ce composite généré artificiellement avait la pose, la coiffure et la forme générale du visage de l’image source (rangée du haut), alors qu’il avait les couleurs des cheveux et des yeux, et des traits faciaux plus fins, de l’image cible (colonne de gauche).

Les résultats sont étonnamment réalistes, pour la plupart.

technologie Deepfake

Karros et al.

Préoccupations au sujet de la technologie Deepfake

La capacité de produire des images artificielles réalistes, souvent appelées “deepfakes” lorsque les images sont censées ressembler à des personnes reconnaissables, a suscité des inquiétudes ces dernières années. Après tout, il n’est pas difficile d’imaginer comment cette technologie pourrait permettre à quelqu’un de créer une fausse vidéo d’un politicien, par exemple, qui dit quelque chose d’odieux au sujet d’un certain groupe. Cela pourrait entraîner une érosion massive de la volonté du public à croire tout ce qui est rapporté dans les médias. (Comme si les préoccupations au sujet des “fake news” n’étaient pas suffisantes.)

Pour suivre l’évolution de la technologie deepfake, le Département de la défense a mis au point des outils conçus pour détecter les vidéos “deepfakes”.

“Il s’agit d’un effort pour essayer de prendre de l’avance sur quelque chose”, a déclaré le sénateur de Floride Marco Rubio en juillet. “La capacité de faire tout cela est réelle. Elle existe maintenant. La volonté existe maintenant. Tout ce qui manque, c’est l’exécution. Et nous ne sommes pas prêts pour cela, ni en tant que peuple, ni en tant que branche politique, ni en tant que média, ni en tant que pays.”

Cependant, il pourrait y avoir un problème paradoxal avec les efforts du gouvernement.

“Théoriquement, si vous donniez à un [réseau adverse génératif] toutes les techniques que nous connaissons pour le détecter, il pourrait passer toutes ces techniques “, a déclaré David Gunning, directeur du programme DARPA en charge du projet, au MIT Technology Review. “Nous ne savons pas s’il y a une limite. Ce n’est pas clair.”

Lire aussi : Les vidéos deepfake deviennent incroyablement bonnes

Source : Big Think – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *