Au cours de la dernière année, Activision a pris de nombreuses mesures pour… toxique L’ambiance qui existe parfois dans le multijoueur en ligne de Call of Duty est un peu plus supportable. Cela semble plutôt bien fonctionner, en partie grâce aux nouveaux systèmes de modération automatique. Plus précisément, un programme d’IA qui écoute le chat vocal pour toxique La détection des comportements est très efficace.
Ce programme, sorti quelques mois avant la sortie de Modern Warfare 3, a considérablement réduit le nombre de joueurs confrontés à des déclarations inquiétantes dans le chat vocal. Activision parle d’une réduction de 50 pour cent, soit de moitié, depuis le lancement de Modern Warfare 3. Le nombre de joueurs qui enfreignent à plusieurs reprises le code de conduite a également diminué de 8 pour cent.
Bien que la modération automatique soit efficace, Activision demande toujours aux joueurs de signaler tout comportement toxique. Cela arrivait rarement au début. Pour l’encourager, les joueurs qui le signalent reçoivent désormais un remerciement pour l’avoir signalé. À l’avenir, Activision espère également pouvoir avertir les joueurs si leurs rapports nécessitent une action. toxique joueur mené.
Le code de conduite de Call of Duty est mis à jour
Pour être clair sur ce que Call of Duty tolérera et ne tolérera pas en mode en ligne, le code de conduite du jeu a été mis à jour. Il précise désormais clairement que toute forme d’intimidation fondée, entre autres, sur la race, l’identité, la sexualité ou la religion n’est pas autorisée. Il ne devrait y avoir aucun langage offensant ou… discours de haine apparaître dans le chat texte ou vocal.