Facebook annonce un nouveau système d’apprentissage profond qui détecte automatiquement la « désinformation »


Le système pourrait conduire à une censure encore plus automatisée sur la plate-forme.

facebook

Facebook a publié des informations sur un nouveau système d’apprentissage profond qui analyse les interactions sur ses plateformes et utilise ensuite ces données pour détecter automatiquement ce qu’il considère comme de la « désinformation ».

Selon les recherches de Facebook, « les messages de désinformation suscitent différents types de réactions de la part d’autres comptes que les comptes et messages normaux/bénéfiques ».

Ce nouveau système, appelé « Temporal Interaction Embeddings » (TIES), surveille et analyse automatiquement les interactions des posts ainsi que des informations supplémentaires sur les sources et les cibles de ces interactions. TIES peut ensuite utiliser ces informations pour apprendre et détecter les types de réactions qui sont le plus souvent associées à ce que Facebook considère comme de la désinformation.

Dans le cadre de ses recherches, Facebook a utilisé 2,5 millions de comptes (dont 80 % étaient réels et 20 % étaient des faux) et 130 000 messages (dont 10 % étaient qualifiés de désinformation) pour former son système TIES et tester ses performances dans différents scénarios, y compris la détection de la désinformation.

Facebook a écrit qu’il a observé des « gains statistiquement significatifs » dans sa capacité à détecter la désinformation et que ce système TIES peut contribuer à « améliorer l’intégrité » de sa plate-forme.

L’annonce de TIES fait suite à l’annonce faite par Facebook la semaine dernière selon laquelle il utilisera ses systèmes automatisés pour stopper le contenu de coronavirus dissident viral en examinant les « marqueurs de désinformation ».

Cette année, Facebook a considérablement augmenté la quantité de contenu censuré pour avoir violé ses règles de désinformation et a récemment révélé que plus de 100 millions de messages ont été censurés pour désinformation sur le coronavirus au cours du deuxième trimestre 2020.

Il envoie également automatiquement aux utilisateurs des articles de l’Organisation mondiale de la santé (OMS) s’ils interagissent avec ce que la plateforme considère comme de la désinformation « nuisible ».

Mais malgré cette censure de masse et l’acheminement de ses utilisateurs vers l’OMS, les médias se sont plaints que Facebook ne censure pas assez rapidement les vidéos populaires qui s’opposent aux points de discussion habituels sur les coronavirus.

En conséquence, les efforts récents de Facebook se sont concentrés sur des outils automatisés tels que ce système TIES qui détecte précocement les contenus que Facebook considère comme de la désinformation et empêche toute opposition au discours préféré des chefs de file technologiques sur le coronavirus ou d’autres sujets de gagner du terrain.

Lire aussi : La Fondation Gates finance les fact-checkers de Facebook qui la défendent des allégations

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *