juin 2, 2013 Noémie

Comment créer un meilleur Internet

Au cours des derniers mois, j’ai lu des centaines d’articles et d’articles sur la propagation de la désinformation et du contenu haineux en ligne. J’ai passé en revue des dizaines d’outils prétendant aider les utilisateurs à trier le bon contenu du mauvais. Et je ne peux m’empêcher de penser qu’ils ne nous rapprochent pas de la réponse.

J’ai donc commencé, comme toujours, par la recherche.

Je voulais comprendre s’il nous manquait de grandes idées qui nous aideraient à accomplir cette mission. Et il y avait.

L’étude m’a expliqué pourquoi les simples « étiquettes nutritionnelles » qui ont émergé en 2018 ne fonctionnent pas, pourquoi les outils de la plate-forme sont défectueux et comment nous devons aborder le problème d’une manière différente.

Voici un résumé rapide.

Cette étude a été menée avec des enquêtes auprès de 200 utilisateurs aux États-Unis et au Royaume-Uni, à travers un mélange équilibré d’âges et de genres, suivies d’une série de huit entretiens 1: 1 contenu en ligne. J’ai passé en revue des dizaines d’outils prétendant aider les utilisateurs à trier le bon contenu du mauvais. Et je ne peux m’empêcher de penser qu’ils ne nous rapprochent pas de la réponse.

Le problème, c’est Facebook

Il ressort clairement de nos premières recherches et des études existantes que le problème de la désinformation et du discours de haine réside principalement dans les réseaux sociaux et les plateformes de contenu généré par les utilisateurs.

Bien que nos participants utilisent tout l’éventail des médias sociaux, lorsque nous leur demandons où ils voient du contenu haineux ou des discours haineux, c’est toujours la même réponse : Facebook.

«Je vois des trucs haineux sur Facebook et Instagram, de la part d’amis d’amis. Réponses haineuses aux messages politiques.

« Les gens post-Trump sont à l’aise pour exprimer des opinions racistes sur Facebook et en personne. »

« Harcèlement. Nous pensons que c’est juste un problème avec les enfants, mais beaucoup d’adultes le font. Sur Facebook. »

Les deux autres plates-formes qui sont apparues fréquemment étaient Instagram et YouTube – en particulier, la rapidité avec laquelle les commentaires se transforment en haine.

Certaines plates-formes ont été perçues plus favorablement par les participants : Twitter est considéré comme moins problématique car le flux de chaque utilisateur est sa propre sélection de voix, et Reddit est continuellement félicité pour son système de rétroaction simple mais efficace.

« Je me connecte avec des gens sur Facebook avec qui je ne serais pas normalement ami. Alors qu’avec Twitter, je choisis qui je suis.

« Reddit est bon parce que les mauvaises choses seront downvotées. »

« J’aime Reddit – Downvoting est plus bénin que Reporting. »

Cela soutient notre hypothèse – que nous devons résoudre ce problème en évaluant les éléments de contenu individuellement. D’autres organisations, comme Newsguard, essayant de répondre à la même mission que nous, l’abordent à travers une approche très simpliste, en classant les domaines. Mais cela n’aide pas lorsque la majorité du problème réside sur les mêmes quelques plateformes sociales, les mêmes quelques domaines.

Alors que nous applaudissons l’approche adoptée par ces organisations, nous avons décidé de ne jamais attribuer de note basée sur un jugement humain subjectif à une publication basée sur son histoire. C’est juste injuste et biaisé, et également non évolutif pour tous les millions de nouveaux sites Web qui pourraient apparaître à l’avenir.