Twitter teste la possibilité d'éditer les Tweets offensants avant publication

Pendant des années, les gens ont demandé à Twitter d’ajouter la possibilité d’éditer des Tweets, et pendant des années, la société a résisté. Maintenant, pour une poignée d’utilisateurs d’iOS, cela est en train de changer.

Twitter teste la possibilité d'éditer les Tweets offensants avant publication

Si vous avez retenu votre souffle pour un bouton “Editer le Tweet”, expirez maintenant avant de vous évanouir. Une option d’édition appropriée n’est pas susceptible d’arriver de sitôt - le cas échéant - mais dans le cadre d’une expérience, Twitter teste la possibilité de "modifier" des Tweets.

Ainsi, si vous vous vous apprêtez à écrire quelque chose comme ça dans une réponse à un Tweet, le réseau social pourrait bientôt vous demander de reconsidérer votre Tweet avant de l’envoyer.

Rappelons qu'en temps normal, Twitter ne vous permet pas de modifier les tweets après leur publication. Twitter, cependant, vous permet de supprimer les tweets individuels. Vous pouvez sauver le tweet incriminé en le copiant, en le réécrivant avant de le republier sur Twitter comme un nouveau tweet et en supprimant l’ancien.

Mais, Twitter fait un pas en annonçant qu'il teste actuellement la fonctionnalité d'édition avec un nombre limité d’utilisateurs sur iOS pour évaluer leur réponse. Essentiellement, si vous publiez des insultes, épithètes, ou jurons dans une réponse, Twitter pourrait vous réprimander comme le ferait un professeur d’école.

L’option fait donc partie d’une expérience avec les utilisateurs d’iOS seulement, et même dans ce groupe d’utilisateurs de Twitter, l’option ne sera pas disponible sur tous les Tweets.

Préoccupé par le niveau d’abus sur sa plate-forme, Twitter teste le scan des réponses tweetées dans un langage potentiellement dangereux. Si un tel langage est détecté, il demandera aux utilisateurs s’ils souhaitent reconsidérer ce qu’ils sont sur le point de dire en réponse à un Tweet.

Dans un Tweet, Twitter dit qu’il donne à certaines personnes la possibilité de modifier le texte de leurs Tweets fortement formulés :


Quand les esprits s’échauffent, vous pouvez dire des choses que vous ne voulez pas dire.

Pour vous permettre de repenser une réponse, nous menons une expérience limitée sur iOS avec une invite qui vous donne la possibilité de réviser votre réponse avant qu’elle ne soit publiée si elle utilise un langage qui pourrait être nuisible.


Il n’y a aucune clarté pour le moment quant à ce que Twitter considère comme «nuisible». L’entreprise a mis en place une politique contre le discours de haine qui s’attaque à des questions plus larges telles que l’imagerie nuisible et les menaces violentes.

De plus, nous n’avons aucune idée si l’IA de Twitter est assez puissante pour détecter les changements d’orthographe délibérés et les fautes de frappe que quelqu’un pourrait faire, afin d’éviter que leurs Tweets grossiers soient repérés.

Même si Twitter réussit à détecter des ruses de fautes d’orthographe volontaires pour passer à travers les mailles du filet, il doit maintenir le contexte culturel et une liste à jour de l’argot Internet pour suivre les tendances mondiales.

En Janvier dernier, le responsable du produit de Twitter, Kayvon Beykpour, a déclaré lors d’une séance de questions-réponses que l’entreprise essayait de tirer parti de l’apprentissage automatique pour réduire la toxicité sur la plate-forme.

Au cours de cette session, il a dit qu’il était difficile de déterminer ce qui est abusif pour quelqu’un :

Fondamentalement, nous essayons de prédire les Tweets qui sont susceptibles de violer nos règles. Et ce n’est qu’une forme de ce que les gens pourraient considérer comme abusif, parce que quelque chose que vous pourriez considérer comme abusif peut ne pas être contre nos politiques, et c’est là que cela devient difficile.

Twitter n’est pas la seule plate-forme à jouer avec cette idée. L’année dernière, Instagram a déployé une fonctionnalité qui vous demandera de réfléchir à deux fois avant de poster un commentaire grossier.

Plus tard, Instagram l’a étendue aux légendes où il montre un avertissement aux utilisateurs avant d’afficher qu’elle semble "similaire à ce qui a été signalé".

Limiter les commentaires toxiques ou abusifs est un problème difficile pour les réseaux sociaux, car cela s’étend sur divers plans culturels et linguistiques. À l’heure actuelle, il n’y a pas de bonnes réponses à ce sujet. L’expérience de Twitter ne sera couronnée de succès que si l’entreprise parvient à freiner certains abus tout en maintenant la liberté d’expression.

S’adressant à Reuters, Twitter déclare :

Nous essayons d’encourager les gens à repenser leur comportement et à repenser leur langage avant publication parce qu’ils sont souvent dans le feu de l’action et qu’ils pourraient dire quelque chose qu’ils regrettent.

L’expérience devrait durer quelques semaines et ne s’appliquera qu’aux Tweets de langue anglaise. Il n’est pas clair si Twitter prévoit de tester avec les utilisateurs sur des plates-formes autres que iOS.

Les politiques de Twitter ne permettent pas aux utilisateurs de cibler des personnes avec des insultes, des propos racistes ou sexistes, ou des contenus dégradants.

Source : Thenextweb