O YouTube anunciou esta segunda-feira que foram removidos mais de 8,3 milhões de vídeos da sua plataforma, apenas entre os meses de outubro e dezembro de 2017. Entre os conteúdos visados eliminados existem vídeos de natureza violenta e/ou ofensiva. "A maioria destes vídeos era sobretudo SPAM ou pessoas que tentavam carregar conteúdos para adultos - e representam uma pequena fracção do total de visualizações do YouTube durante este mesmo período", adianta a empresa.

Os números foram publicados no seu primeiro relatório de moderação de conteúdos, cujo lançamento foi em parte incitado pelas críticas que têm sido feitas ao site pela sua aparente incompetência em eliminar vídeos extremistas no tempo adequado. As pressões têm crescido por parte de vários governos europeus e por parte da administração comunitária.

O YouTube apresentou também uma nova ferramenta para acompanhar a evolução das denúncias feitas.

Reddit diz que posts racistas não vão contra as suas regras
Reddit diz que posts racistas não vão contra as suas regras
Ver artigo

Em comunicado, a empresa afirma que este foi um "primeiro passo importante" e diz acreditar que o documento possa "ajudar a mostrar o progresso que tem sido feito na remoção de conteúdos violentos ou extremistas" do YouTube. O vídeo explica o processo de "flag" e a forma como a Google trata estes casos.

A empresa aproveitou ainda para sublinhar a importância das tecnologias de machine learning nesta tarefa. De acordo com o portal, as máquinas foram responsáveis por assinalar 6,7 milhões dos vídeos eliminados, sendo que 76% destes conteúdos acabaram mesmo por ser retirados antes de receberem qualquer visualização.

De forma a reforçar o seu compromisso com a moderação de publicações online, a Google anunciou em dezembro que vai assegurar a criação de uma equipa de 10 mil pessoas, até ao fim de 2018, para trabalhar ativa e exclusivamente na aplicação das suas regras de utilização. A equipa trabalhará em articulação com um conjunto de sistemas autónomos, que se tem demonstrado bem sucedido na identificação prematura de conteúdos abusivos.

Apesar da utilidade destas tecnologias, o YouTube ainda permite que os seus utilizadores assinalem vídeos que considerem integrar conteúdos ofensivos e/ou que violam as regras de utilização da plataforma, pelo que a equipa humana será ainda necessária para concretizar alguns passos deste processo de eliminação.

O YouTube destaca ainda a diferença de papéis que ambas as partes têm demonstrado neste exercício, uma vez que os vídeos assinalados por humanos estão frequentemente relacionados com spam ou conteúdos sexuais explícitos, ao passo que as máquinas são melhores na identificação de posts violentos.

Nota da redacção: A informação foi actualizada para maior precisão sobre o recurso ao machine learning neste processo.

Newsletter

Receba o melhor do SAPO Tek. Diariamente. No seu email.

Na sua rede favorita

Siga-nos na sua rede favorita.