La fonctionnalité préférée d’Elon Musk sur X a mis jusqu’à 3 jours pour signaler de fausses nouvelles sur Israël et Gaza, selon une analyse

La fonctionnalité préférée d'Elon Musk sur X a mis jusqu'à 3 jours pour signaler de fausses nouvelles sur Israël et Gaza, selon une analyse
  • Bloomberg a analysé près de 400 messages partageant de la désinformation sur la guerre entre Israël et le Hamas.
  • Il a indiqué que les notes de la communauté prenaient généralement 7 heures, et parfois jusqu’à 70 heures, pour signaler les publications.
  • Les récidivistes abonnés à X Premium aggravent le problème.

La fonctionnalité Community Notes de X prend généralement sept heures pour signaler la désinformation, selon une analyse Bloomberg des publications sur Israël et Gaza.

Depuis qu’il a repris l’entreprise anciennement connue sous le nom de Twitter, Elon Musk a défendu les notes communautaires comme moyen de donner aux lecteurs un contexte important sans avoir à supprimer les publications.

Ce programme s’appuie sur des milliers de bénévoles pour signaler les messages manquant de contexte ou erronés.

Les utilisateurs qui se portent volontaires pour devenir contributeurs peuvent suggérer et noter des notes pour ajouter du contexte à une publication. Une note de la communauté n’apparaît à côté d’une publication que si les contributeurs avec un « diversité des points de vue » je suis d’accord qu’un message en a besoin.

Bloomberg a analysé près de 400 messages contenant de fausses informations entre le 7 octobre – date à laquelle la nouvelle de l’attaque du Hamas contre Israël a été annoncée – et le 21 octobre. Ceux-ci ont été tirés d’une base de données publique de notes de la communauté.

« Nous considérons que les publications contiennent de « fausses informations » si elles incluent du texte, des photos ou d’autres médias dont il est prouvé qu’ils sont inexacts », a déclaré Bloomberg.

Il a constaté qu’il fallait près de trois jours pour que certains de ces messages soient signalés par le programme Community Notes.

Des exemples de désinformation comprenaient des affirmations selon lesquelles des séquences de jeux vidéo concernaient la guerre entre Israël et le Hamas et une image de victimes d’attaques chimiques en Syrie en 2013, faussement étiquetées comme des bébés palestiniens tués par Israël.

Selon Bloomberg, il y a également eu plusieurs récidivistes sur des comptes diffusant de la désinformation qui avaient été précédemment suspendus par Twitter mais réintégrés lorsque Musk a repris l’entreprise. Certaines publications de ces comptes étaient également plus visibles car ils sont abonnés à X Premium.

Musk a annoncé le mois dernier que les publications des créateurs qui ont été corrigées ou modifiées par les notes de la communauté ne sont pas éligibles pour gagner de l’argent grâce au programme de rémunération des créateurs de X. Mais il a déclaré qu’ils resteraient généralement sur la plateforme.

Il a supprimé une grande partie du système précédent de la plateforme, qui empêchait la propagation de tweets potentiellement problématiques avant qu’ils puissent être vérifiés par son équipe de confiance et de sécurité – qui a été en grande partie dissoute peu après le rachat de Musk.

X dit que les images signalées par les notes de la communauté recevront également le contexte supplémentaire lorsqu’elles seront dupliquées et republiées, mais Bloomberg a constaté que cela n’avait pas eu lieu pour l’image de Syrie.

X n’a ​​pas immédiatement répondu à la demande de commentaires de Trading Insider.

A lire également