Jogos de tiro em primeira pessoa como Call of Duty são notórios pela toxicidade de seus lobbies e chats de voz
É digno de nota que a ferramenta (pelo menos por enquanto) não tomará medidas reais contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision
Jogos de tiro em primeira pessoa, como Call of Duty, são um tanto infames pela toxicidade de seus lobbies e chats de voz. Pesquisas apontaram a base de fãs da franquia como a mais negativa em todo o universo dos games; uma disputa entre dois jogadores já resultou na convocação de uma equipe SWAT. A Activision vem tentando combater esse comportamento há anos, e parte da solução pode envolver a inteligência artificial.
A Activision fez uma parceria com uma empresa chamada Modulate para trazer "moderação de chat de voz em jogo" para seus títulos. O novo sistema de moderação, utilizando uma tecnologia de IA chamada ToxMod, trabalhará para identificar comportamentos como discurso de ódio, discriminação e assédio em tempo real.
O lançamento inicial em beta do ToxMod na América do Norte começa hoje. Está ativo dentro de Call of Duty: Modern Warfare II e Call of Duty: Warzone. Um "lançamento mundial completo" (não inclui a Ásia, conforme observado no comunicado à imprensa) seguirá em 10 de novembro com o lançamento de Call of Duty: Modern Warfare III, a nova entrada deste ano na franquia.
O comunicado à imprensa da Modulate não inclui muitos detalhes sobre como exatamente o ToxMod funciona. Seu site observa que a ferramenta "triagem o chat de voz para sinalizar comportamentos inadequados, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada incidente fornecendo contexto relevante e preciso". O CEO da empresa disse em uma entrevista recente que a ferramenta visa ir além da mera transcrição; ela leva em consideração fatores como as emoções e o volume de um jogador para diferenciar declarações prejudiciais das brincadeiras.
É digno de nota que a ferramenta (pelo menos por enquanto) não tomará medidas reais contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision. A participação humana provavelmente continuará sendo uma salvaguarda importante, uma vez que pesquisas mostraram que sistemas de reconhecimento de fala podem exibir viés na forma como respondem a usuários com diferentes identidades raciais e sotaques.