Durant des parties endiablées de Call of Duty, il peut arriver que les joueurs s’invectivent entre eux, c’est de bonne guerre (virtuelle). Mais Activision ne veut pas que ces discussions passionnées se transforment en harcèlement ou en discours toxique, d’où le recours à l’intelligence artificielle pour trier le bon grain de l’ivraie.
Les chats audio de Call of Duty vont être surveillés de près : à partir du 10 novembre, soit le jour du lancement de Modern Warfare III, le nouvel opus de la franchise, une intelligence artificielle va tenter de détecter en temps réel les discours toxiques, haineux ou discriminants. Pas question cependant de modérer en direct, ToxMod va simplement signaler les comportements à l’équipe d’humains en charge de la modération.
Distinguer la vacherie de la discrimination
Ce nouveau système utilise ToxMod, une technologie développée par Modulate, qui viendra renforcer les capacités de modération de l’éditeur qui peut déjà intervenir sur les chats texte dans 14 langues. Modulate donne peu d’explications techniques sur le fonctionnement de son outil de modération, si ce n’est qu’il est en mesure de faire le tri dans les conversations et d’en analyser les nuances et le contexte pour déterminer si oui ou non tel discours franchit la ligne rouge.
Dans Call of comme dans tous les titres où les joueurs doivent se coordonner pour être plus efficaces, il arrive que tout le monde finisse par se hurler dessus ou à se vanner sans pour autant penser à mal. Il sera intéressant de voir comme ToxMod prendra tout cela en compte.
Ce système a été mis en place en version bêta en Amérique du Nord dans Call of Duty: Modern Warfare II et Call of Duty: Warzone. Le déploiement à l’international interviendra avec le lancement de Modern Warfare III.
Source :
Modulate