Facebook veut désormais des administrateurs de Groupe actifs

Facebook a annoncé une série de nouvelles règles visant à pénaliser davantage ceux qui violent ses standards communautaires, en particulier dans les groupes Facebook

Facebook tente de nettoyer les Groupes avec de nouvelles règles

Facebook a également introduit des règles destinées à réprimer la propagation de la désinformation à travers ces réseaux plus privés. Les changements auront des répercussions sur ceux qui ont aidé à diriger des groupes qui ont par la suite été interdits et les membres qui y ont participé.

Les règles supprimeront également certains des groupes les plus potentiellement dangereux des recommandations de groupe de Facebook, entre autres choses.

Facebook déclare en effet dans son communiqué :

Les gens se tournent vers les groupes Facebook pour se connecter avec d’autres qui partagent leurs centres d’intérêt, mais même s’ils décident de rendre un groupe privé, ils doivent jouer selon les mêmes règles que tout le monde.

Nos standards communautaires s’appliquent aux groupes publics et privés, et nos outils de détection proactive fonctionnent dans les deux. Cela signifie que même si quelqu’un ne nous signale pas un problème, notre IA (Intelligence Artificielle) peut détecter la violation potentielle du contenu et nous pouvons le supprimer.

Aujourd’hui, nous partageons une mise à jour sur notre travail continu pour assurer la sécurité des groupes, y compris un certain nombre de changements visant à réduire les contenus nuisibles et la désinformation.



Les Administrateurs et Modérateurs désormais ciblés


La politique de récidive actuelle de Facebook visait à empêcher les gens de créer de nouveaux groupes semblables à ceux qui ont été interdits pour avoir enfreint ses standards communautaires. Toutefois, la règle ne s’appliquait qu’aux Administrateurs de groupe.

Maintenant, Facebook dit que les administrateurs et les modérateurs ne seront pas en mesure de créer de nouveaux groupes pour « une période de temps » après que leur groupe a été interdit pour une violation de la politique.

Facebook dit que cette période est de 30 jours.

Si après les 30 jours, l’administrateur ou le modérateur tente de créer un autre groupe de violation, ils seront à nouveau mis en pause pendant 30 jours.

De plus, les membres du groupe qui ont subi des violations des standards communautaires dans un groupe devront maintenant être approuvés pour les 30 prochains jours.


Cela signifie que tous leurs messages devront être pré-approuvés par un administrateur de groupe ou un modérateur.

Cela pourrait aider les groupes à traiter avec ceux dont le comportement est souvent signalé, mais cela pourrait également submerger les groupes avec un grand nombre d’utilisateurs. Et Facebook déclare :

Si les administrateurs ou les modérateurs approuvent alors un message qui viole les standards de la communauté, le groupe sera supprimé.



Facebook veut des Groupes avec un Administrateur actif


Facebook exigera également que les groupes aient un administrateur actif.

Souvent, les administrateurs sont occupés et se retirent ou quittent leur groupe. Facebook va maintenant tenter d’identifier les groupes où un administrateur n’est pas impliqué et proposer de manière proactive des rôles d’administrateur aux membres qui peuvent être intéressés.

Vous avez peut-être déjà reçu des notifications de certains de vos groupes indiquant qu’un administrateur est nécessaire. Si c’est le cas, c’est parce que Facebook vous a identifié comme quelqu’un qui a le potentiel de diriger le groupe, car vous n’avez pas d’antécédents de violations.

Facebook va maintenant tenter d’identifier les groupes où un administrateur n’est pas impliqué et proposer de manière proactive des rôles d’administrateur aux membres qui peuvent être intéressés.


Facebook va donc commencer à archiver les groupes sans un administrateur actif dans les semaines à venir. Cela se produira lorsque les administrateurs partent et personne d’autre n’assume le rôle d’administrateur.

Ce changement pourrait aider à réprimer la circulation non modérée de l’information entre les groupes, ce qui peut conduire à la propagation rapide du pourriel et de la désinformation.

Il est utile d’avoir la modération directe, comme sur d’autres sites de forum tels que Reddit ont montré, mais ce n’est souvent pas assez. La culture de groupe peut également encourager certains types de contenu — y compris le contenu qui viole les règles de Facebook — et les administrateurs y participent souvent.


Lutte contre la désinformation dans les Groupes Facebook


Pour lutter contre la désinformation ou fake news sur Facebook, Facebook dit qu’il adoptera une approche « supprimer, réduire, informer » qui tire parti d’un réseau mondial de fact-checkers indépendants. Pour les groupes Facebook, ce travail comprend :

  • Suppression des groupes qui partagent du contenu qui viole ses standards communautaires.
    • Si les administrateurs ou les modérateurs publient ou approuvent à plusieurs reprises du contenu qui enfreint ses règles, Facebook supprimera le groupe entier.


  • Réduire la distribution des groupes qui partagent la désinformation.
    • Les groupes qui partagent à plusieurs reprises du contenu mal noté par les fact-checkers ne seront pas recommandés à d’autres personnes sur Facebook. Facebook classe tous les contenus de ces groupes plus bas dans le fil d’actualité et limite les notifications afin que moins de membres voient leurs publications.


  • Informer les gens lorsqu’ils rencontrent de la désinformation.
    • Facebook applique un label au contenu qui a été examiné par les fact-checkers, afin que les gens puissent voir le contexte supplémentaire.

      Facebook informe également les utilisateurs avant qu’ils n’essaient de partager ce contenu, et il informe les gens si quelque chose qu’ils ont partagé est plus tard classé faux.

      Les administrateurs du groupe sont également informés chaque fois qu’un élément de contenu classé faux par les fact-checkers est affiché dans leur groupe, et ils peuvent voir une vue d’ensemble de cela dans l’outil “Qualité du groupe”.

Un autre changement aura un impact sur les groupes qui sont suggérés aux utilisateurs.


Les Groupes traitant de la santé dans le viseur de Facebook


Les groupes de santé ne seront plus recommandés, car « il est crucial que les gens obtiennent leurs informations de santé de sources faisant autorité », a déclaré Facebook.

Malheureusement, ce changement à lui seul ne peut qu’atténuer le danger d’une information trompeuse sur la santé, mais ne fait pas grand-chose pour l’arrêter.

Parce que les groupes de santé peuvent encore être trouvés via la recherche, les utilisateurs seront en mesure de voir facilement des groupes qui correspondent à leurs croyances, même lorsque ces croyances sont activement nuisibles pour eux-mêmes ou pour les autres.

Il y a, aujourd’hui, un grand nombre de groupes qui continuent à diffuser des informations trompeuses ou fake news sur la santé ou de pousser les utilisateurs à essayer d’autres remèdes alternatives ou non testés.

Ces participants de groupe peuvent avoir le « droit » d’avoir ces discussions en ligne, du moins de l’avis de Facebook, mais il y a un désaccord sur la question de savoir si les groupes devraient être autorisés à être visibles dans la recherche sur Facebook et avoir la même possibilité de découverte que les ressources dirigées par des experts.

Par exemple, si vous recherchez sur Facebook aujourd’hui pour les vaccins, Facebook sera heureux de vous diriger vers plusieurs grands groupes qui vous disent de ne pas en obtenir un.

Ce faisant, Facebook a effectivement retiré l’autorité des experts médicaux et des médecins sur les questions de santé et l’a remis au grand public.

Multipliez cela à l’échelle des milliards d’utilisateurs de Facebook et sur tous les sujets, et il est facile de voir pourquoi tout simplement ne pas « recommander » certains groupes fait à peine mal.


Réduction des Groupes liés à la propagation et à la violence


Facebook rappelle également aujourd’hui aux utilisateurs ses règles pour réduire la propagation des groupes liés à la violence. Il les supprime déjà des recommandations, les empêche de rechercher, et dans un proche avenir, il dit qu’il va réduire leur contenu dans le fil d’actualité.

Ces groupes sont également supprimés s’ils utilisent un langage et des symboles voilés pour éviter d’être signalés. Récemment, 790 groupes liés à QAnon ont été supprimés en vertu de cette politique, a indiqué Facebook.

Ce changement, cependant, arrive trop peu, trop tard. QAnon, laissé sans contrôle pendant des années, a puisé dans la conscience dominante et implique maintenant des gens qui ne peuvent même pas se rendre compte qu’ils sont manipulés par des initiatives dirigées par QAnon.

Ensuite, il y a la question pas-petite de savoir si Facebook peut réellement appliquer les règles qu’il vient d’énumérer.

Un rapide coup d’œil aux résultats de recherche Facebook pour QAnon indique qu’il ne peut pas. Il peut avoir supprimé 790 de ces groupes, mais après avoir fait défiler pendant quelques minutes, vous n’atteindrez même pas le bas des résultats de recherche de groupes après avoir cherché en utilisant « QAnon » comme mot clé.

Et ce ne sont même pas des groupes anti-QAnon non plus.

Cela démontre qu’une grande partie du travail de Facebook dans ce domaine est performative, plutôt qu’efficace.

Un balayage ponctuel de groupes nuisibles n’est pas la même chose que de consacrer des ressources et du personnel à la tâche pour pousser ces mouvements marginaux dangereux, les organisateurs sujets à la violence ou les croyants de la science anti-médicale en dehors de Facebook - une position qu’ils ont une fois retenu dans l’ère hors ligne, sans lien.

Facebook d’aujourd’hui donne plutôt à ces groupes l’accès à tous les mêmes outils pour s’organiser que n’importe qui d’autre, et ne limite leur propagation qu'en fonction de l’émoi au fil du temps.

Par exemple, la politique de Facebook sur les groupes liés à la violence se contredit pratiquement. Elle prétend supprimer les groupes qui discutent de la violence, mais inclut simultanément un certain nombre de règles sur la limitation de ces mêmes groupes dans les recommandations et les déclassements (downranking) dans la recherche.

Cela indique que même Facebook comprend qu’il ne peut pas supprimer ces groupes en temps opportun.


Ce que fait Facebook pour les messages au sein des groupes


Au cours de la dernière année, Facebook dit avoir supprimé environ 1,5 million de contenus dans les Groupes Facebook pour avoir violé ses politiques sur la haine organisée, dont 91% qu’il a trouvés de façon proactive.

Facebook dit aussi avoir supprimé environ 12 millions de contenus dans des groupes pour avoir violé ses politiques sur les discours haineux, dont 87% ont été trouvés de façon proactive.

Quand il s’agit de groupes eux-mêmes, Facebook dit qu’il va supprimer un groupe entier s’il enfreint à plusieurs reprises ses règles ou s’il a été mis en place avec l’intention de violer ses standards communautaires. Au cours de la dernière année, Facebook a supprimé plus d’un million de groupes pour avoir violé ces politiques.

Les utilisateurs ne sont pas d’accord si le rôle de Facebook devrait impliquer la modération de ce genre de contenu sur sa plate-forme ou dans quelle mesure tout cela devrait être protégé comme « liberté d’expression ».

Mais Facebook n’a jamais vraiment pris une position morale ici ou a fait valoir qu'il n’est pas un organisme gouvernemental, de sorte qu’il peut faire ses propres règles basées sur ce qu’il représente.

Au lieu de cela, il a construit une infrastructure Internet massive où la modération du contenu a été une réflexion après coup et un travail à externaliser aux moins fortunés.

Maintenant, Facebook veut des éloges pour son travail de nettoyage, avant même qu’il ne résout avec succès les problèmes qu’il a créés, dixit Techcrunch