Facebook : les consignes de censure et de modération des contenus révélées

Une fuite de documents internes de Facebook vient de révéler les règles et consignes selon lesquelles Facebook décide ce que ces presque 2 milliards d’utilisateurs peuvent publier sur le réseau social.

Facebook : la censure des utilisateurs et la modération des contenus révélés

The Guardian, qui a relayé cette fuite, déclare avoir pu consulter plus de 100 manuels de formation, des feuilles de calcul et des organigrammes qui donnent un aperçu sans précédent sur les règles que Facebook a utilisées pour modérer des questions sensibles telles que la violence, la haine, le terrorisme, la pornographie, le racisme et l'automutilation.

Ainsi, d’après ces documents divulgués par The Guardian, Facebook semble pour le moment être plus préoccupé par la suppression des fake news du fil d’actualité des utilisateurs et l’éradication de clickbaits (post à clics) et autres propagandes.

Mais il y a aussi eu beaucoup d'intérêts dans la façon dont le réseau social modère ou censure les contenus publiés par ses utilisateurs.

La fuite de ce qui a été surnommé les “Fichiers Facebook” donne un aperçu fascinant de la façon dont l'entreprise modère le contenu, en mettant en exergue ce que sont ses lignes directrices secrètes en interne.

Certaines des règles sont surprenantes. Ainsi, l'automutilation en direct, par exemple, ne sera pas censurée, alors que des images d’animaux maltraités le seront.

Avec près de 2 milliards d’utilisateurs, Facebook emploierait une petite équipe de modérateurs, et les documents divulgués montrent qu'ils vivent des moments très difficiles. A ce propos, Facebook a déclaré il y a peu qu'il va bientôt recruter près de 3.000 nouveaux modérateurs.

Les fichiers Facebook (Facebook Files) sont une série de manuels donnés aux modérateurs après 2 semaines de formation avec le réseau social. Les modérateurs complètent les systèmes automatisés d'intelligence artificielle (IA) et l’algorithme de Facebook qui essaient d'identifier le contenu qui n'est pas autorisé avant même qu'il ne soit publié.

L'équipe des modérateurs humains existe pour traiter les signalements sur le contenu qui sont envoyés par les utilisateurs : de la maltraitance des enfants, au cannibalisme et au racisme, en passant par le contenu sexuel, les menaces et le terrorisme.

Malgré que Facebook continue à protester qu'il n'est pas un éditeur, ses documents fuités sur ses consignes de modération comportent une similarité marquée avec ceux qui pourraient être utilisés par un éditeur.

Ils sont également susceptibles de causer la confusion et même l'offense que les utilisateurs voient pour la première fois juste comment, et pourquoi, une partie de leur contenu est filtré et censuré.

Facebook reconnaît que dans le cadre des discussions animées et concernant des sujets émotifs, les gens vont utiliser un langage fort pour exprimer leurs sentiments. Dans de tels cas, une explosion de "Fuck off and Die" serait autorisée.

Toutefois, une menace directe telle que “Trump devrait être abattu” serait supprimée en raison du statut protégé des chefs d'État.

Facebook autorise encore le partage des photos des abus contre les animaux, dans la mesure où ces photos, selon lui, peuvent servir à sensibiliser le public. Cependant, une vidéo du même abus n'est pas autorisée.

Il y a eu de nombreux incidents récemment dénoncés sur Facebook Live Video qui est parfois utilisé pour diffuser toutes sortes de contenu potentiellement bouleversant ou choquant.

D’après toujours les fichiers Facebook divulgués par The Guardian, Facebook dit cependant que si quelqu'un choisit de se faire soi-même du mal en direct, "les modérateurs ne devraient pas arrêter le flux vidéo en direct".

L'idée est que la compagnie Facebook "ne veut pas censurer ou punir les gens en détresse" et la vidéo en direct serait alors considérée comme une occasion d'offrir de l'aide à cette personne en détresse. La même chose s'applique aussi aux tentatives de suicide.

Sur la liste de "ce qui est interdit" figurent le déni de l'Holocauste, les menaces de violence contre les personnalités publiques, la violence sexuelle, la promotion du terrorisme et l'extrémisme.

Sur la liste de “ce qui est permis”, on trouve des choses comme la nudité dans l'art, la critique du terrorisme et de l'extrémisme, l'intimidation et l'abus des enfants s'il n'y a pas d'élément sexuel ou sadique, des vidéos de morts violentes qui pourraient être utilisées pour sensibiliser les gens aux questions.