Por Lucas Batista, para o TechTudo


Counter Strike: Global Offensive (CS:GO), um dos jogos online mais populares da Steam, conta com um novo sistema de detecção de comportamento tóxico que já baniu mais de 20 mil jogadores nas últimas seis semanas. Desenvolvido pela FACEIT em parceria com a Google, a ferramenta usa inteligência artificial para analisar o chat de texto do jogo e detectar ofensas e spam. Como resultado, o número de mensagens tóxicas no game foi reduzido em 20% desde que o sistema foi implantado.

Mais de 20 mil jogadores foram banidos em seis semanas devido a comportamento tóxico no CS:GO — Foto: Divulgação/Steam

A inteligência artificial é chamada de Minerva e foi desenvolvida pela FACEIT, organizadora do torneio FACEIT Major 2018, em conjunto com a Google. Aplicada no CS:GO no fim de agosto, a ferramenta deverá chegar a outros jogos em breve. O funcionamento do sistema é via aprendizado de máquina (machine learning), que realiza análises do conteúdo escrito no chat de texto em busca de detectar padrões de comportamento e frases agressivas, a fim de melhorar o ambiente do game.

Em seis semanas, Minerva detectou 7 milhões de mensagens tóxicas, aplicou 90 mil advertências e baniu 20 mil jogadores. A ferramenta avisa o jogador de comportamento tóxico logo após a partida em que o ato aconteceu, dando a advertência. Caso seja reincidente, a punição é aplicada de forma mais severa, podendo resultar em banimento. Porém, se a ofensa for considerada muito grave, é possível que o banimento ocorra já na primeira situação.

Toxicidade é considerado o comportamento que excede o limite da competitividade. Isso inclui ofensas pessoais, formas de preconceito como racismo, homofobia, misoginia, xenofobia, discurso de ódio, bullying, além de provocações constantes e reincidentes. Portanto, spam de mensagens provocativas também é motivo para banimento.

Quer comprar consoles, jogos e outros produtos com desconto? Conheça o Compare TechTudo

Mais do TechTudo