Facebook va pénaliser tout contenu limite

Facebook va changer son algorithme du fil d’actualité afin de rétrograder le contenu qui se rapproche de violer ses politiques interdisant la désinformation, le discours de haine, la violence, l'intimidation et le clickbait, de sorte qu'il soit vu par moins de gens, même s’il est très engageant.


Le changement pourrait réduire massivement la portée des groupes politiques incendiaires, des colporteurs de fausses nouvelles (fake news), et autres horreurs sur Facebook.

Cela permet à l'entreprise de masquer ce qu'il ne veut pas voir sur le réseau social sans prendre une position difficile, alors qu'il il doit se défendre sur le contenu qui outrepasse ses règles.



Dans une lettre de Mark Zuckerberg relayée par Techcrunch, celui-ci a expliqué comment il y a un “problème de base d'encouragement” que “lorsqu'il n'est pas cochée, les gens vont engager de façon disproportionnée avec plus de contenu sensationnel et provocateur”.

Nos recherches suggèrent que peu importe où nous traçons les lignes pour ce qui est autorisé, quand un morceau de contenu se rapproche de cette ligne rouge, les gens vont plus engager avec lui en moyenne, même quand ils nous disent ensuite qu'ils n'aiment pas le contenu.

Sans intervention, l'engagement avec le contenu borderline ressemble au graphique ci-dessus, augmentant à mesure qu'il se rapproche de la ligne de politique de Facebook.

Donc, Facebook intervient, supprimant artificiellement la distribution de ce genre de contenu dans le News Feed afin que l'engagement ressemble au graphique ci-dessous (pratiquement nul).



Facebook va appliquer des pénalités au contenu borderline non seulement dans le fil d’actualités, mais aussi à l'ensemble de son contenu, y compris les Groupes et les Pages elles-mêmes pour s'assurer qu'il (Facebook) ne radicalise pas les gens en leur recommandant de rejoindre les communautés parce qu'elles sont très engageantes grâce à un flirt avec sa ligne de politique.

Toutefois, les utilisateurs qui veulent à dessein voir le contenu limite auront toujours le moyen d’opter pour.

Zuckerberg écrit :

Pour ceux qui veulent prendre ces décisions eux-mêmes, nous croyons qu'ils devraient avoir ce choix puisque ce contenu ne viole pas nos normes.
Par exemple, Facebook pourrait créer des normes flexibles pour les types de contenu comme la nudité où les normes culturelles varient, comme la façon dont certains pays interdisent aux femmes d'exposer beaucoup de peau dans les photographies, alors que d'autres permettent la nudité sur la télévision de réseau.

Cela peut prendre un certain temps jusqu'à ce que ces in et opt soient disponibles.

Cependant, comme le dit Mark Zuckerber, Facebook doit d'abord former son Intelligence Artificielle pour être en mesure de détecter de manière fiable le contenu qui, soit franchit la ligne jaune, soit délibérément s'approche de la limite et flirte donc avec la ligne rouge.