Não seria ótimo se o aprendizado de máquina pudesse ser aplicado para melhorar comentários e outras conversas on-line? Grandes e pequenos editores, do NYT ao site que está lendo agora, estão gastando recursos significativos para impedir que os trolls bombardeiem os leitores com comentários tóxicos.
Uma nova tecnologia do Google baseada no aprendizado de máquina se esforça para automatizar o processo de classificação através de milhões de comentários, ajudando a identificar e sinalizar comentários abusivos que prejudicam uma troca civil de idéias.
Em parceria com a Jigsaw, o Google lançou o Perspective, uma tecnologia em estágio inicial baseada no aprendizado de máquina que pode ajudar a identificar comentários tóxicos na web. A API oficial da perspectiva permite que os editores usem essa tecnologia em seus sites.
O Google explica como funciona:
A Perspectiva analisa os comentários e os classifica com base em como eles são semelhantes aos comentários que as pessoas disseram serem "tóxicas" ou com probabilidade de fazer alguém sair de uma conversa. Para aprender a identificar linguagem potencialmente tóxica, o Perspective examinou centenas de milhares de comentários rotulados por revisores humanos.
Cada vez que o Perspective encontra novos exemplos de comentários potencialmente tóxicos ou recebe correções dos usuários, pode melhorar a pontuação de comentários futuros.
Depois que o sistema identifica comentários tóxicos, os editores podem sinalizá-los para que seus próprios moderadores os revisem e os incluam em uma conversa. Os leitores também podem classificar os comentários por toxicidade, a fim de revelar conversas importantes. O sistema pode até permitir que os comentaristas vejam a toxicidade potencial de seus comentários enquanto os escrevem.
Você acha que trollar não é um problema tão grande?
A coisa novamente - o New York Times tem uma equipe inteira encarregada de revisar uma média de 11.000 comentários todos os dias. Devido à enorme mão de obra necessária para revisar os comentários, o artigo possui comentários sobre apenas dez por cento de seus artigos.
O Google e o Times trabalharam juntos para treinar modelos de aprendizado de máquina, para que os moderadores possam classificar os comentários mais rapidamente. Quando o Perspective é lançado publicamente e muitos outros editores o adotam, o sistema será exposto a mais comentários e desenvolverá uma melhor compreensão do que torna certos comentários tóxicos.
“Nosso primeiro modelo foi projetado para detectar linguagem tóxica, mas no próximo ano estamos interessados em formar parcerias e oferecer novos modelos que funcionem em idiomas diferentes do inglês, bem como modelos que possam identificar outras perspectivas, como quando os comentários não são substanciais ou fora do tópico ", disse o Google.
De acordo com o DataSociety, 72% dos internautas americanos testemunharam assédio online e quase a metade o experimentou pessoalmente. Quase um terço dos entrevistados disseram autocensurar o que publicam online por medo de represálias. Estima-se que o assédio online tenha afetado a vida de cerca de 140 milhões de pessoas nos EUA e muitas outras em outros lugares..
Fonte: Google