
Le leader de la diffusion de parties de jeux vidéo en direct peine depuis des mois à endiguer une vague de harcèlement raciste et homophobe, qui consiste en des « hate raids » – « raids de haine » – contre certains créateurs, notamment des personnes non-blanches ou de la communauté LGBTQ.
Les harceleurs viennent sur les fenêtres de chat de leurs victimes, et les inondent d’insultes ou d’images choquantes – comme des croix gammées quand le joueur est juif, par exemple.
Si le créateur les bannit, certains reviennent quand même en créant un nouveau compte.
Le nouvel outil, baptisé « Suspicious User Detection », « est là pour vous aider à identifier ces utilisateurs en fonction de certains signaux (…) pour que vous puissiez prendre des mesures », a indiqué Twitch dans un communiqué.
Ce programme, fondé sur des technologies dites de « machine learning » (apprentissage automatisé des logiciels, une catégorie d’intelligence artificielle), distinguera les fraudeurs « probables » et « possibles ». Dans le premier cas, leurs messages n’apparaîtront pas en public, seul le joueur et ses modérateurs les verront.
A charge à eux de décider ensuite de les surveiller ou de les bannir.
« Aucun système de machine learning n’est fiable à 100% », précise cependant Twitch, « C’est pour cela que (l’outil) n’interdit pas automatiquement tous les potentiels fraudeurs ».
La plateforme appartient au géant des technologies Amazon, qui domine largement l’industrie mondiale du cloud (informatique à distance).
Elle affirme accueillir plus de 30 millions de visiteurs par jour.
En août dernier, des joueurs se sont mobilisés pour appeler la société à réagir face aux raids.
Twitch a lancé de nouveaux outils et aussi porté plainte contre deux utilisateurs, qui, selon elle, gèrent depuis l’Europe des comptes multiples sur la plateforme sous différentes identités et sont capables de « générer des milliers de bots (des programmes informatiques automatisés, ndlr) en quelques minutes » dans le but de harceler leurs victimes.