L’intelligence artificielle trouve de plus en plus d’applications, désormais également dans Call of Duty. Le chat vocal dans le jeu est désormais modéré par l’IA. Il y a un programme appelé ToxMod qui écoute, qui toxique comportement, après quoi les gens d’Activision peuvent décider d’émettre une interdiction.

ToxMod ne peut donc entreprendre aucune action lorsqu’il détecte un comportement toxique. L’IA attribue à chaque rapport une catégorie et un niveau d’intensité. Par exemple, une violation peut être considérée comme plus grave si un enfant est impliqué dans la conversation ou si les interlocuteurs réagissent plus violemment que d’habitude à une déclaration.

La modération de Call of Duty AI comprend le contexte

Par exemple, l’IA peut garantir qu’une distinction est faite entre un groupe d’amis qui se montrent durs les uns envers les autres et des personnes qui s’insultent réellement. L’intention est également que l’IA puisse entendre de quelle manière un gros mot, comme le fameux n-mot, est utilisé. Si une personne blanche l’utilise envers une personne noire, c’est généralement une insulte, alors que les noirs l’utilisent souvent à l’amiable entre eux.

Call of Duty n’est pas seulement strict sur le chat vocal. Les tricheurs dans le jeu sont également traités de nouvelles manières. De plus, si vous êtes banni pendant un match, les joueurs seront informés que vous avez été expulsé.