Le recours aux détecteurs d’intelligence artificielle suscite des inquiétudes en matière de censure, après que de vraies vidéos ont été qualifiées de fausses


Le problème de la modération de contenu par l’IA.

L’idée d’utiliser l’IA pour détecter et peut-être même censurer les contenus en ligne liés à l’IA s’est développée l’année dernière. Toutefois, si l’on en croit des tests récents, la précision de cette technologie est loin d’être parfaite, ce qui signifie que des contenus authentiques pourraient être censurés à tort si l’on se fie à cette technologie.

Dans le cadre de la lutte contre les vidéos truquées, Intel a mis au point un nouveau système baptisé « FakeCatcher » qui est censé faire la distinction entre les médias numériques authentiques et ceux qui ont été modifiés. L’efficacité du système a été mise à l’épreuve en utilisant un mélange de clips réels et trafiqués de l’ancien président Donald Trump et de l’actuel président Joe Biden. Intel utiliserait le trait physiologique de la photopléthysmographie, qui révèle les changements de la circulation sanguine et suit le mouvement des yeux pour identifier et démasquer ces contrefaçons profondes.

Le scientifique renommé Ilke Demir, qui fait partie de l’équipe de recherche d’Intel Labs, explique que le processus consiste à déterminer l’authenticité du contenu en se basant sur des critères humains tels que les changements dans le flux sanguin d’une personne et la cohérence des mouvements oculaires, rapporte la BBC.

Ces caractéristiques humaines naturelles sont détectables dans les vidéos réelles, mais absentes dans les vidéos réalisées à l’aide d’outils d’IA, explique M. Demir.

Toutefois, des tests préliminaires ont révélé que cette technologie n’était peut-être pas infaillible. Malgré l’audacieuse revendication de l’entreprise d’une précision de 96 % pour FakeCatcher, les résultats des tests montrent une histoire contrastée. Le système a détecté efficacement les deepfakes synchronisés avec les lèvres, ne parvenant à reconnaître qu’un seul cas sur plusieurs. Il est intéressant de noter que la véritable épreuve est apparue lorsque le système a été confronté à des vidéos authentiques, une situation dans laquelle il a identifié à tort certaines vidéos réelles comme étant inauthentiques.

Les vidéos pixellisées ou de faible qualité présentent des limites évidentes, car la détection des signaux de circulation sanguine faciale devient alors un véritable défi. En outre, l’analyse non audio de FakeCatcher implique que des fichiers audio apparemment authentiques peuvent être étiquetés comme faux.

Malgré les réserves émises par des chercheurs opposés, comme Matt Groh de la Northwestern University, qui ont mis en doute l’applicabilité des statistiques présentées dans des situations réelles, M. Demir défend l’approche excessivement prudente de FakeCatcher, qui vise à minimiser le nombre de fausses vidéos manquées.

Lire aussi : Les forces d’opérations spéciales américaines envisagent d’utiliser des « deepfakes » pour des opérations psychologiques, selon un rapport

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *