La PDG de YouTube appelle à la création de coalitions mondiales pour lutter contre les contenus « légaux mais potentiellement dangereux »


Une pression pour que des sociétés non élues fixent les normes mondiales de modération du contenu légal.

Lors d’une intervention au Sommet mondial sur la gouvernance technologique 2021 du Forum économique mondial, un événement au cours duquel plus de 40 gouvernements et 150 entreprises se réunissent pour assurer « la conception et le déploiement responsables des technologies émergentes », Susan Wojcicki, PDG de YouTube, a exprimé son soutien aux plateformes technologiques qui modèrent les contenus « techniquement légaux mais qui pourraient être nuisibles » et a fait l’éloge des coalitions mondiales qui aident les grandes entreprises technologiques à coordonner et à automatiser leurs efforts de censure.

Wojcicki a déclaré que lorsque les entreprises technologiques se conforment à la loi, il y a encore des « problèmes autour de la parole » et a suggéré que ces questions devraient être traitées par des sociétés privées.

« Je vois beaucoup de problèmes autour de la parole et de ce qui devrait ou ne devrait pas être autorisé sur les plateformes par exemple », a déclaré Wojcicki. « Et c’est un domaine vraiment difficile. Il est certain que les pays adoptent certaines lois et nous nous conformons à toutes les lois adoptées par les différents pays, mais bien souvent, certains contenus sont légaux mais peuvent être considérés comme nuisibles. Et il est difficile pour les gouvernements de trouver nécessairement le bon moyen de le réglementer. »

Elle a ensuite proposé le modèle de YouTube, qui consiste à policer de manière privée ce que la plateforme considère comme de la « désinformation » COVID-19, comme un moyen efficace de gérer ce contenu qui est « légal mais pourrait être nuisible ».

« Avec le COVID-19, avec un certain nombre de types différents de désinformation, il serait difficile pour les gouvernements du monde entier d’adopter tous des règlements différents à ce sujet et d’avoir une conformité », a déclaré Wojcicki. « Il y a donc cette catégorie de contenu que je qualifierais de contenu techniquement légal mais qui pourrait être nuisible et c’est là que nous avons consacré beaucoup de temps pour essayer de nous assurer que nous avons mis en place les bonnes politiques. »

Wojcicki a poursuivi en notant qu’elle trouve « stimulant » que les gouvernements adoptent différentes lois sur la modération du contenu.

« C’est un défi lorsque les gouvernements adoptent tous des règles différentes et que nous avons un patchwork de produits différents », a déclaré Wojcicki. « Je pense qu’il serait étrange que YouTube fonctionne différemment dans chaque pays en fonction des différentes politiques qui y sont appliquées. »

Wojcicki a ensuite positionné les organisations mondiales qui se réunissent pour former des coalitions et créer des normes mondiales de modération de contenu comme quelque chose de « vraiment efficace ».

« Le GIFCT, par exemple, qui est une organisation de lutte contre l’extrémisme violent, financée par des gouvernements et composée de nombreux experts, est un exemple de coalition efficace capable de déterminer comment traiter ce sujet difficile, mais de le faire à l’échelle mondiale et de manière cohérente », a déclaré Mme Wojcicki.

Elle a ajouté : « Je suis très favorable à la création d’organisations qui peuvent être mondiales, qui peuvent couvrir l’industrie ainsi que les gouvernements, avoir des experts et trouver des moyens de mieux gérer certaines de ces questions difficiles. Je me réjouis donc d’une plus grande collaboration à l’avenir et j’espère mettre en place davantage d’organisations de ce type qui peuvent nous aider à résoudre certains des problèmes les plus difficiles auxquels nous sommes confrontés. »

Pour donner un aperçu des implications de la censure par des entreprises privées de contenus qu’elles jugent « techniquement légaux mais qui pourraient être nuisibles », YouTube a supprimé plus de 800 000 vidéos pour avoir enfreint ses règles de désinformation COVID-19 de grande portée.

Les coalitions mondiales telles que le GIFCT (Global Internet Forum to Counter Terrorism) amplifient cette censure massive et irresponsable de contenus légaux en permettant à de multiples plateformes technologiques de coordonner et d’automatiser leurs efforts de censure.

Daphne Keller, directrice du Program on Platform Regulation au Cyber Policy Center de Stanford, a constaté que des hachages de contenu sont ajoutés à la base de données du GIFCT parce qu’ils « violent les conditions d’utilisation d’une plateforme » et que les images ou vidéos sous-jacentes « ne violent pas nécessairement la loi, ou peuvent violer les lois de certains pays mais pas d’autres ».

Une fois ces hachages ajoutés à la base de données du GIFCT, les entreprises membres peuvent automatiquement détecter et bloquer le contenu sous-jacent.

Non seulement le GIFCT facilite cette censure coordonnée, mais selon plus de 15 organisations de défense des droits de l’homme et des droits numériques, les efforts déployés par les membres du GIFCT pour bloquer ou limiter les contenus qu’ils jugent « terroristes et extrémistes violents » ont entraîné « la suppression de contenus s’opposant au terrorisme, ainsi que de satires, de reportages et d’autres contenus qui constituent une liberté d’expression légitime en vertu du droit international ».

Lire aussi : La PDG de YouTube explique au sommet du Forum économique mondial comment la plateforme a intensifié ses efforts de censure

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *