Aller au contenu principal

Facebook s’excuse et promet de s’améliorer

Après une enquête du site ProPublica, Facebook a du faire amende honorable en reconnaissant de sérieuses défaillances dans sa gestion de la modération.

« Un bon musulman est un musulman mort ». « Mort aux musulmans ». En apparence, ces deux commentaires publiés sur Facebook n’ont pas beaucoup de différences et représentent des appels à la haine, allant contre les standards de la communauté. Pourtant, si le second a été supprimé, le second a lui été autorisé par la modération du réseau social. Pourquoi ?

Facebook promet de faire des efforts pour la modération des contenus racistes ou des appels à la haine

Le pure player spécialisé dans les enquêtes d’intérêt public s’est penché en fin d’année 2017 sur la modération du réseau social Facebook. La rédaction a récupéré 49 exemples de publications à caractères haineux. Au choix : racisme, sexisme, appel à la haine… Sur les 49 cas, le réseau social a été forcé de reconnaître pas moins de 22 erreurs, soit presque 50 % d’erreurs selon l’enquête.

Comment expliquer cette situation ? Tout d’abord par l’ampleur de la tâche. Des millions de commentaires chaque jour et seulement 7.500 modérateurs. Raison pour laquelle le réseau social a promis de faire des efforts en 2018.

Faut-il y voir un vœu pieux ou une bonne résolution pour l’année 2018 ? Difficile de savoir pour l’instant. Mais, le réseau social a commencé par présenter des excuses. « Nous sommes désolés pour les erreurs commises, elles ne sont pas le reflet de la communauté que nous voulons construire. Nous devons faire mieux » a détaillé Justin Osofsky, le vice-président de Facebook.

Comment va se concrétiser cette promesse ? Tout d’abord par une politique d’embauche massive. L’équipe devrait être doublée en 2018. Attention, il ne s’agira à priori pas seulement de modérateurs mais de profils plus variés afin de répondre aux différents défis que pose la modération d’un réseau de plus de deux milliards d’utilisateurs actifs.
La solution réside probablement du côté des algorithmes. En effet, difficile de rompre de façon efficace le biais humain. Selon l’enquête de ProPublica, les modérateurs font souvent des choix différents sur des contenus similaires et ont du mal à respecter les directives complexes de Facebook, afin de ne pas tomber non plus dans la censure.

[ad_2]

Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut