Facebook révèle comment il décide de supprimer un contenu

Facebook a révélé aujourd'hui les lignes directrices internes dont ses modérateurs se servent pour examiner le contenu. Ce qui signifie que les utilisateurs auront enfin une idée plus claire de pourquoi un certain contenu est supprimé ou censuré, et comment ils peuvent faire appel de la décision.

Facebook révèle comment il décide de supprimer un contenu

La liste complète des Standards de la communauté de Facebook est divisée en 6 sections, chacune s'attaquant aux spécificités d'un type de contenu.

Par exemple, ils ont des listes différentes pour le contenu répréhensible, comme le discours de haine, et le respect de la propriété intellectuelle. Chaque section est maintenant complétée par des règles très précises sur ce qui est et n'est pas une violation des Standards.

D’après Monika Bickert, Vice-Présidente de la gestion des politiques mondiales de Facebook, les règles n'ont pas changé. Facebook ne fait juste que révéler au grand jour la façon dont il gère les violations :
...Pour la première fois, nous publions les lignes directrices disponibles en interne que nos modérateurs de contenu utilisent pour prendre des décisions sur ce qui est autorisé sur Facebook.

Nous avons décidé de publier ces guidelines internes pour deux raisons.

Premièrement, les guidelines aideront les gens à comprendre comment nous traitons les questions nuancées.

Deuxièmement, en fournissant ces détails, il est plus facile pour tout le monde, y compris les experts dans différents domaines, de nous donner leurs avis afin que nous puissions améliorer les lignes directrices, et les décisions que nous prenons, au fil du temps.

L'un des défis consiste à identifier les violations éventuelles de nos standards afin que nous puissions les examiner. La technologie peut aider ici. Nous utilisons une combinaison d'intelligence artificielle et de signalements des utilisateurs pour identifier des publications, des images ou d'autres contenus qui sont susceptibles de violer nos standards communautaires.

Ces signalements sont examinés par notre équipe d'opérations communautaires, qui travaillent 24/7 dans plus de 40 langues.

En ce moment, nous avons plus de 7.500 examinateurs de contenu, plus de 40% de plus que le nombre à cette époque l'an dernier.

Et Monika Bickert de préciser ce qui suit pour justifier cette initiative qui consiste à rendre ces guidelines désormais publiques :

Nous sommes conscients de l’importance pour Facebook d’offrir un espace incitant les gens à communiquer, et nous prenons très au sérieux notre rôle afin d’écarter les abus de notre service.

C’est la raison pour laquelle nous avons développé un ensemble de Standards de la communauté qui explique ce qui est autorisé ou pas sur Facebook.

Nos Standards s’appliquent dans le monde entier à tous les types de contenu. Ils ont été conçus pour être exhaustifs.

Ainsi, un contenu qui ne serait pas considéré comme un discours incitant à la haine pourrait malgré tout être supprimé parce qu’il enfreint notre règlement sur l’intimidation.

Il faut reconnaître qu’au niveau des utilisateurs, Facebook met déjà depuis longtemps des outils ou fonctions qui leur permettent également de bloquer, de se désabonner ou de masquer des personnes et des publications, afin qu’ils puissent contrôler leur propre expérience sur Facebook.

Toutefois, la démarche salutaire de ce jour est importante pour Facebook qui cherche à redorer son blason. C’est d’ailleurs dans cette même optique qu’il a déployé ses nouvelles conditions d’utilisation que les utilisateurs doivent approuver pour continuer à utiliser Facebook.

Facebook est aussi actuellement en difficulté parce qu’on lui reproche un manque de transparence dans une vague de scandales de confidentialité des données. Une critique au niveau de l'entreprise depuis des années a été son manque d'ouverture quant à savoir quel contenu est autorisé ou pas sur sa plate-forme.

Les histoires de traitement incohérent et les retraits ou censures de contenu jugés injustes sont aussi vieux que Facebook lui-même. Maintenant, les utilisateurs ont des règles écrites dont ils peuvent se servir pour faire appel d'une décision de suppression de leur contenu.

En effet, en plus de rendre les lignes directrices publiques, Facebook met également en place l'ouverture d'un processus d'appel pour les utilisateurs qui estiment que leur contenu a été supprimé ou censuré par erreur.


On peut maintenant faire appel sur Facebook


Auparavant, toute décision de suppression de contenu des utilisateurs était discrétionnaire et pouvait difficilement faire l’objet d’un appel.

Facebook décide maintenant d’être un tant soit peu souple et d’admettre qu’il peut aussi se tromper sur la nature réelle d’un contenu supprimé.

C’est pourquoi il autorise désormais l’appel :

Nous savons que nous devons faire davantage. C'est pourquoi, au cours de l'année à venir, nous allons renforcer la capacité des gens à faire appel de nos décisions.

Dans un premier temps, nous lançons les appels pour des publications qui ont été supprimées en raison de la nudité/l'activité sexuelle, le discours de haine ou de la violence graphique.

Voici comment cela fonctionne :


Si votre photo, votre vidéo ou votre message a été supprimé parce que nous avons constaté qu'il viole nos Standards de la communauté, vous serez avisés, et vous aurez la possibilité de demander un examen supplémentaire.

Cela entraînera un examen par notre équipe (toujours par une personne physique), typiquement dans les 24 heures.

Si nous avons fait une erreur, nous vous en informerons, et votre post, photo ou vidéo sera restauré.

Voici un post qui montre un exemple de ce qui aurait pu être incorrectement supprimé et peut maintenant faire l’objet d’un appel :

Image via Facebook

Nous nous efforçons de prolonger ce processus, en supportant plus de types de violation, en donnant aux gens la possibilité de fournir plus de contexte qui pourrait nous aider à prendre la bonne décision, et de rendre les appels disponibles non seulement pour le contenu qui a été supprimé ou masqué, mais aussi pour le contenu qui a été signalé et laissé en place.

Nous croyons que donner aux gens une voix dans le processus est un autre élément essentiel de la construction d'un système équitable.

Comme Facebook veut rendre les appels plus constructifs, il va aussi donner aux utilisateurs la possibilité de faire appel lorsque Facebook lui-même ne supprime pas le contenu offensant ou gênant qui aura été pourtant signalé.

Il n’y a pas que l’auteur d’un contenu qui devrait pouvoir faire appel parce que son contenu a été supprimé. Car, souvent, les utilisateurs peuvent être frustrés lorsque le contenu qu'ils trouvent offensant ou nuisible, et qu’ils ont signalé n'est pas supprimé du site.

Voici les 6 types de contenu traités dans les Standards de la Communauté Facebook :

  1. Violence et comportement criminel

  2. Sécurité

  3. Contenu répréhensible

  4. Intégrité et authenticité

  5. Respecter la propriété intellectuelle 

  6. Données relatives aux contenus