X, anciennement Twitter, représente un terrain de jeu complexe et fascinant pour les scientifiques, suscitant leur intérêt en raison de son envergure et de son influence sociopolitique. Une récente étude souligne l’impact grandissant de l’algorithme de la plateforme, mettant en lumière la propagation croissante de messages toxiques. Cette tendance préoccupante semble prendre de l’ampleur depuis le rachat de la plateforme par Elon Musk.
X : Une source inestimable pour les chercheurs et son influence politique
Jusqu’à récemment, X a été une source d’informations riche pour les chercheurs, grâce à la disponibilité des données et à l’ouverture de la plateforme. Avec plus de 560 millions de comptes actifs mensuels, X joue un rôle significatif dans le paysage des médias sociaux, bien que son utilisation soit moins répandue que celle d’Instagram et de Facebook.
Ce qui distingue X des autres réseaux sociaux, c’est son caractère politique. Les polémiques et discussions sur la plateforme ont des répercussions au-delà de ses frontières, un phénomène rare pour des plateformes comme Facebook ou Instagram. Comprendre comment l’algorithme choisit les contenus à afficher revêt donc une importance cruciale.
L’Influence de l’algorithme et ses biais
Selon Paul Bouchaud, doctorant à l’Institut des Systèmes Complexes à Paris, depuis 2016, l’algorithme de X sélectionne les messages dans le fil d’actualité en se basant sur ce que les amis ont publié récemment. Cependant, les algorithmes peuvent introduire des biais, comme l’a reconnu Twitter en 2022, affirmant que leur algorithme favorisait certains messages politiques.
Une étude menée par Bouchaud et son équipe révèle que l’amplification algorithmique des messages toxiques a considérablement augmenté depuis le rachat de X par Elon Musk. Durant une période allant de décembre à janvier, les messages toxiques étaient amplifiés d’environ 30%. En février, cette amplification a atteint 50%. Cette augmentation suggère une manipulation accrue de l’algorithme depuis le changement de propriété.
Il est crucial de noter que le comportement des utilisateurs contribue également à cette toxicité en ligne. Les messages toxiques sont préférés, recevant deux fois plus de likes et de réponses par rapport aux messages non toxiques. Ainsi, l’algorithme, qui cherche à maximiser l’engagement, favorise naturellement la visibilité des contenus toxiques.
Cette étude met en lumière un lien critique entre l’algorithme de X, le comportement des utilisateurs et la propagation de la toxicité en ligne. Les conséquences de cette amplification sont nombreuses, contribuant à la distorsion de la réalité virtuelle et renforçant l’idée que la plateforme est plus toxique qu’elle ne l’est réellement. En conclusion, il devient impératif d’explorer des solutions pour atténuer ces effets néfastes et promouvoir un environnement en ligne plus sain.