Facebook a déjà fermé 583 millions de faux comptes cette année

Facebook a publié son rapport annuel de transparence, et pour la première fois il inclut le nombre d'articles supprimés qui ont violé ses standards de contenu dans chaque catégorie.

Facebook a déjà fermé 583 millions de comptes cette année

Alors que la société semble être très compétente pour éliminer la nudité et la propagande terroriste, il est à la traîne quand il s'agit de discours de haine.

Le mois dernier, Facebook a publié ses lignes directrices internes de gestion et de modération de la communauté pour la première fois et aujourd'hui, la société a fourni quelques chiffres pour montrer ce à quoi l'application Facebook ressemble vraiment.

Dans un nouveau rapport qui sera désormais publié trimestriellement, Facebook décompose ses efforts de modération dans 6 domaines principaux :

  1. La violence graphique

  2. La nudité des adultes et l'activité sexuelle

  3. La propagande terroriste

  4. Le discours de haine

  5. Le spam

  6. Et les faux comptes.

Le rapport précise quelle quantité de ce contenu a été vue par les utilisateurs de Facebook, combien de celle-ci a été supprimée et combien de celle-ci a été rétrogradée dans le fil d’actualité avant que les utilisateurs de Facebook ne les signalent.

Le spam et les faux comptes ont été les plus répandus au cours de ce premier trimestre de cette année.

Facebook a supprimé 837 millions posts spammy et 583 millions faux comptes.

En outre, la société a agi sur :

  • 21 millions de posts de nudité et d'activité sexuelle,

  • 3,5 millions posts qui affichaient un contenu violent,

  • 2,5 millions d’exemples de discours haineux

  • 1,9 million de contenus terroristes.

Dans certains cas, les systèmes automatisés de Facebook ont fait un bon travail de recherche et de marquage du contenu avant que les utilisateurs puissent le signaler.

Ses systèmes ont repéré près de 100% de spam et de propagande terroriste, près de 99% de faux comptes et environ 96% des posts avec de la nudité d'adultes et d'activité sexuelle.

Pour la violence graphique (photos et vidéos), la technologie de Facebook a représenté 86% des signalements.

Cependant, dès lors qu’il s’agit de discours de haine, la technologie de Facebook a seulement marqué environ 38% des posts sur lesquels il a pris des mesures. Et Facebook admet qu'il a plus de travail à faire là-dessus.

Ce que confirme Guy Rosen, VP de Facebook de la gestion des produits chez Facebook :

Comme Mark Zuckerberg l’a dit à la F8, nous avons beaucoup de travail encore à faire pour prévenir les abus.

C'est en partie du fait que la technologie comme l'intelligence artificielle, tout en étant prometteuse, est encore à des années avant d'être efficace pour la plupart des mauvais contenus parce que le contexte est si important.

Tout au long du rapport, Facebook partage la façon dont les chiffres du trimestre le plus récent se comparent à ceux du trimestre précédent, et où il y a des changements importants et il note aussi pourquoi cela pourrait être le cas.

Par exemple, avec la propagande terroriste, Facebook dit que son taux de suppression élevé est dû à des améliorations dans la technologie de détection des photos qui peuvent repérer à la fois le contenu ancien et le contenu nouvellement publié.

Vous pouvez lire le rapport complet ici.

Facebook a également fourni un guide pour le rapport ainsi qu'un post des questions difficiles sur la façon dont il mesure l'impact de son application.