Google va introduire des « interventions » comportementales


La prochaine idée dystopique, y compris des propositions telles que le “pré-bunking”.

Google a présenté son projet baptisé “Info Interventions”, qui repose sur une science comportementale qui, si ces “interventions” sont utilisées comme prévu, pourrait “enseigner” aux utilisateurs à devenir résistants aux préjudices en ligne.

Une autre promesse est qu’en “pré-bunkerisant la désinformation”, les utilisateurs peuvent être “immunisés”.

Comment cela est-il censé fonctionner ? Google a mis en ligne un site qui indique que l’objectif est de fournir des invites d’exactitude qui recentreraient l’attention des utilisateurs vers ce que Google considère comme des informations exactes.

Et pour y parvenir, l’“hypothèse” semble actuellement être que “rappeler aux individus de penser à l’exactitude lorsqu’ils sont sur le point de s’engager avec de fausses informations peut renforcer les objectifs d’exactitude préexistants des utilisateurs”.

Cette méthode visant à former efficacement les utilisateurs à se comporter d’une manière souhaitée tente sans surprise de s’inspirer de la recherche en sciences comportementales et Google affirme qu’elle a été validée par des expériences numériques.

Ce “cadeau au monde” est le fruit de l’unité de Google appelée Jigsaw, créée pour “explorer les menaces qui pèsent sur les sociétés ouvertes et construire une technologie qui inspire des solutions évolutives”.

Dans un article publié sur Medium en mars 2021, Jigsaw déclare que les recherches suggèrent qu’il pourrait y avoir un moyen puissant de réduire la “désinformation” simplement en rappelant aux internautes de penser à l’exactitude – en d’autres termes, en les aiguillonnant jusqu’à ce qu’ils aillent là où vous voulez qu’ils aillent.

On tente même de culpabiliser les utilisateurs en leur faisant croire qu’ils contribuent à la diffusion de “fausses informations en étant enclins aux distractions”, alors que le fait de penser à l’exactitude telle que définie par Google pourrait réduire ce phénomène.

Actuellement, explique Google sur sa page “Interventions”, si un utilisateur fait défiler un flux, il peut rencontrer des “informations potentiellement erronées”.

Cela déclencherait alors “une invite à l’exactitude” qui couvrirait partiellement l’information déjà étiquetée comme étant de la désinformation.

L’invite contient une brève explication sur la raison pour laquelle l’utilisateur la voit, mais en général, l’attention de l’utilisateur est maintenant censée se déplacer du contenu qu’il voulait voir vers l’invite, ce qui signifie qu’il sera dirigé vers la “précision” à la place.

Ils seront également soumis à ce qu’on appelle des conseils de maîtrise de l’information.

Ainsi préparé, l’attention de l’utilisateur se concentre sur le “rappel”, le contenu restant loin derrière. Plus important encore, pour Google, la prochaine fois qu’il rencontrera un contenu similaire, on espère qu’il “réfléchira à deux fois” (sans doute avant de s’y engager).

Passons maintenant aux résultats de ces expériences qui, selon Google (Jigsaw), ont été menées en collaboration avec le MIT et l’Université de Regina :

“Ceux qui ont reçu des conseils de précision étaient 50 % plus perspicaces dans leurs habitudes de partage que les utilisateurs qui n’en ont pas reçu” – et, “Les vidéos pré-roll sur YouTube ont entraîné une augmentation de 11% de la confiance, trois semaines après l’exposition.”

Lire aussi : Le PDG de Pfizer, qui a déclaré que la « désinformation » en ligne était criminelle, est reconnu coupable de déclarations « trompeuses » sur les vaccins

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *