Le Forum économique mondial encourage le programme du MIT qui détecte automatiquement les « récits de désinformation » en ligne


Encore des appels à la censure.

La désinformation et la propagande sont aussi anciennes et aussi présentes que la communication humaine et les sociétés organisées en États. L’attention curieusement intense portée à ces questions ces dernières années incite beaucoup de gens à penser qu’elles servent désormais de justification et d’écran de fumée pour supprimer les discours légitimes mais non désirés, ainsi que les droits civils liés à la libre expression.

Selon votre position à cet égard, vous serez peut-être rassuré ou consterné par le fait que le Forum économique mondial (FEM) est l’une des entités qui insiste sur le fait que la désinformation en ligne représente un énorme danger aujourd’hui – et qui approuve certaines « solutions ».

L’une d’entre elles vient du MIT et de sa « Reconnaissance of Influence Operations (RIO) » – voilà un nom que George Orwell n’aurait probablement pas chassé de ses romans.

D’emblée, RIO « établit » que le pouvoir de la désinformation sur les réseaux sociaux et ailleurs en ligne est tel qu’il peut influencer les élections, mais aussi permettre l’expression de points de vue différents ou, comme le dit l’annonce du programme, « semer la discorde ».

Un autre point dangereux que le programme du MIT entend aborder est la désinformation alimentant les « théories du complot » – mais à la lumière de la récente volte-face embarrassante sur la « fuite du laboratoire de Wuhan », il n’y a aucune preuve d’une définition ferme et consensuelle de ce qu’est même un « complot ». Cette catégorie semble plutôt sujette aux caprices politiques.

Mais RIO semble être conçu pour fonctionner en partant du principe erroné que ces définitions sont objectives et acceptées par toutes les parties prenantes.

On pourrait penser qu’en matière de conspiration, celle qui consiste à dire que les Russes ont élu un président américain en exploitant les médias sociaux est la plus usée et désormais bien démentie.

Pourtant, c’est l’un des titres de gloire des personnes à l’origine de RIO et du groupe Artificial Intelligence Software Architectures and Algorithms du Lincoln Laboratory du MIT, dont l’objectif est non seulement de détecter « automatiquement » ce qu’ils considèrent comme de la désinformation, mais aussi ce que leurs algorithmes d’apprentissage automatique sont programmés pour identifier comme des « récits de désinformation ».

Cela signifie que l’outil reconnaîtrait le niveau d’influence des comptes non seulement par leur taille en termes de followers, mais aussi d’autres éléments comme mesure de l’impact global. Reconnaître pour quelle raison ? Une forte probabilité de censure et de suppression.

« L’équipe envisage que RIO soit utilisé à la fois par le gouvernement et l’industrie, ainsi qu’au-delà des médias sociaux et dans le domaine des médias traditionnels tels que les journaux et la télévision », a déclaré le WEF sur son site web.

Lire aussi : La PDG de YouTube explique au sommet du Forum économique mondial comment la plateforme a intensifié ses efforts de censure

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *