Embora o YouTube tenha vindo a implementar uma série de medidas para limitar o número de vídeos problemáticos que são recomendados, um novo estudo revela que o algoritmo continua a recomendar aos utilizadores conteúdo que viola as políticas da própria plataforma.
O estudo realizado pela Mozilla Foundation tem por base dados recolhidos ao longo de 10 meses por meio da extensão open-source RegretsReporter. Através dela, 37.000 utilizadores do YouTube doaram voluntariamente os seus dados aos investigadores, detalhando a sua experiência na plataforma de vídeos da Google.
Clique nas imagens para mais detalhes
A investigação dá a conhecer que, ao longo do período em análise, os voluntários se depararam com múltiplos vídeos que se arrependeram de terem visto: de desinformação política ou acerca da pandemia de COVID-19 a paródias sexualizadas de desenhos animados para crianças.
Do total de vídeos com conteúdos que vão contra as regras do YouTube, 71% foram recomendados pelo algoritmo da plataforma. Deste conjunto, quase 200 vídeos recomendados aos voluntários, que já contavam com 160 milhões de visualizações, acabaram por ser removidos pelo YouTube.
Os investigadores detalham que vários dos conteúdos que violam as regras do YouTube e que são recomendados pelo algortimo não têm qualquer tipo de relação com os vídeos que estavam a ser anteriormente visualizados pelos voluntários.
“O YouTube tem de admitir que o seu algoritmo foi concebido de uma forma que prejudica e desinforma as pessoas”, defende Brandi Geurkink, investigadora da Mozilla que liderou o estudo. A responsável sublinha que a investigação permitiu comprovar que a plataforma recomenda ativamente vídeos que vão contra as suas próprias políticas.
A tendência também se manifesta fora dos países anglófonos. Aliás, a percentagem de vídeos problemáticos reportados pelos voluntários através da extensão é 60% maior em países que não têm o inglês como língua primária, em particular no Brasil, França e Alemanha.
Em declarações ao The Wall Street Journal, um porta-voz do YouTube indicou que a empresa reduziu as recomendações de vídeos que considera prejudiciais para menos de 1%, tendo implementado mais de 30 medidas ao longo do último ano para solucionar o problema.
Segundo o porta-voz, o sistema automático implementado pela equipa de segurança do YouTube permite detetar 94% dos vídeos que violam as regras, sendo que a maioria é removida da plataforma ainda antes de chegar à marca das 10 visualizações.
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Maple Tale é uma aventura de plataformas com animações desenhadas à mão -
Site do dia
Precisa de gravar o ecrã do computador? O Donzo dá uma ajuda com um clique -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários