Google cria arma contra comentários tóxicos online
Interface permite que editores criem programas que detectarão as mensagens tóxicas antes de sua publicação
A nova ferramenta de inteligência artificial do Google é a mais recente arma para se juntar à luta contra o discurso de ódio. O recurso usa o aprendizado de máquina para identificar comentários abusivos e ofensivos online, a fim de elevar a pressão que os editores enfrentam no rastreamento de trolls na internet.
Essa interface permite que os editores criem programas que detectarão as mensagens tóxicas antes de sua publicação, determinando eles mesmos o nível de tolerância, disse a empresa. Embora os comentários abusivos e ofensivos sejam compartilhados on-line, eles ainda têm um impacto no mundo real.
O Google observou que 72% dos usuários de internet americanos testemunharam o assédio online e quase o experimentaram pessoalmente. De acordo com o mesmo relatório, a atividade afetou a vida de cerca de 140 milhões de pessoas nos EUA.
Para identificar comentários tóxicos, a ferramenta do Google foi treinada com mais de 17 milhões de comentários do jornal americano ''The New York Times'' que foram rotulados por moderadores humanos.
O recurso está sendo testado por vários sites como os dois jornais "New York Times" e "The Guardian", além do Wikipedia, com uma aprendizagem automática a partir de mensagens consideradas provocativas ou fora de tema por parte de moderadores humanos.
"Os meios de comunicação querem encorajar as conversas sobre seus conteúdos, mas detectar entre milhões de comentários aqueles que os sabotam leva muito tempo, trabalho e dinheiro", ressaltou no blog do Google Jared Cohen, presidente do Jigsaw, que construiu a ferramenta.
LeiaJá também
--> Google lança iniciativa contra notícias falsas no Brasil