arrow_backVoltar

100 mil vídeos eliminados

YouTube remove conteúdos com discurso de ódio

04.09.19

Na luta contra o conteúdo ofensivo, esforço que tem feito nos últimos anos, mas que ganhou relevância em meio a questionamentos principalmente de órgãos governamentais nos EUA, o YouTube tem ampliado informações sobre medidas feitas nesse sentido. O mais recente anúncio foi a remoção de 100 mil vídeos de sua plataforma que continham discurso de ódio. Foram encerrados também 17 mil canais. Os dados são relativos ao segundo trimestre.

Em post publicado em seu blog oficial na terça-feira (3), o YouTube informa que nos próximos meses divulgará mais detalhes sobre sua responsabilidade em manter uma plataforma saudável e aberta. Na semana passada, a CEO da companhia, Susan Wojcicki, escreveu uma carta aos criadores sobre as práticas centradas em quatro conceitos que têm como letra inicial o “R” em inglês (leia “Ação contra conteúdo ofensivo”)

Os quatro princípios são: remove, raise, reward, reduce. O primeiro deles é “remover”. O YouTube diz que elimina conteúdo prejudicial desde o início de sua operação, mas o investimento nesse trabalho vem acelerando nos últimos anos. O segundo se refere a recomendar vozes confiáveis quando as pessoas buscam últimas notícias e informações. O terceiro se trata de recompensar criadores qualificados e confiáveis. E o último princípio se baseia na redução da viralização de conteúdo que viola as diretrizes da plataforma.

Segundo a companhia, em 2017 foi aumentado o uso de machine learning para ajudar a detectar conteúdo potencialmente ofensivo. O post afirma que mais de 87% dos nove milhões de vídeos excluídos no segundo trimestre de 2019 foram detectados primeiramente pelo sistema de detecção automática de conteúdo que transgride as regras da comunidade. Esse modelo de atuação também é adotado para detecção de spam. O sistema levou, no segundo trimestre deste ano, a um aumento de 50% nos canais excluídos por violar as políticas de spam.

Melhorias e atualizadas implementadas nos sistemas automáticos ajudam a revisar o conteúdo antes de eles serem relatados pela comunidade. De acordo com o YouTube, no segundo trimestre de 2019, mais de 80% dos vídeos detectados como conteúdo que infringia as regras da plataforma foram excluídos automaticamente antes de terem uma única visualização.

Estamos determinados a continuar reduzindo a exposição a vídeos que violam nossas políticas”, salienta a empresa. O Google emprega mais de 10 mil pessoas na tarefa de detectar, revisar e excluir esse tipo de conteúdo.

Mudanças contra o ódio

O YouTube afirma que atualizações feitas para combater o discurso de ódio representaram uma das mudanças fundamentais nas regras da plataforma. “Passamos meses desenvolvendo cuidadosamente a política e trabalhando com nossas equipes para criar treinamentos e ferramentas necessários para aplicá-la.” A política foi lançada no início de junho e o sistema de detecção vem sendo atualizado conforme as equipes revisam e removem mais conteúdo. Esse trabalho já gera impacto e números que estão reportados no Community Guidelines Enforcement Report (confira aqui) do segundo trimestre.

O relatório de execuções das diretrizes da comunidade foi atualizado na semana passada. O trabalho fornece detalhes sobre a quantidade de conteúdo removido, os motivos para eliminação dos vídeos e como o conteúdo foi detectado pela primeira vez. O documento destaca que a experiência humana - ou seja, o olhar de profissionais, não unicamente das máquinas - permanece crítica para os esforços de criar políticas responsáveis contra material ofensivo veiculado na plataforma.

100 mil vídeos eliminados

/