Desde 2019 que o Bumble recorre a machine learning para proteger os seus utilizadores de nudes não solicitadas. O internamente designado, Private Detector, analisa imagens enviadas entre users para determinar se estas exibem conteúdo inapropriado e embora tenha sido concebido para travar imagens de órgãos genitais, o software já evoluiu e é agora capaz de impedir a disseminação de outros tipos de conteúdo, nomeadamente selfies onde a pessoa surge sem camisola ou fotografias de armas - ambos proibidos no Bumble.
Atualmente, quando é enviada uma fotografia destas, a miniatura que surge na conversa é censurada e o destinatário é questionado sobre se quer ver o conteúdo, bloqueá-lo ou reportar o remetente.
O Bumble anunciou que vai tornar o Private Detector num software de código aberto, o que significa que este vai poder ser livremente utilizado. A framework está já disponível no Github. "Esperamos que uma boa fatia da comunidade tecnológica adote esta funcionalidade para tornar a internet num lugar mais seguro", explicou a empresa.
Nota o Engadget que um estudo de 2016 concluiu que cerca de 57% das mulheres que utilizam aplicações de dating já se sentiram assediadas nas mesmas. Um mais recente, de 2020, indica que mais de 70% das jovens com idade compreendida entre os 12 e os 18 já receberam fotografias com nudez explícita não solicitada, o que significa que, online, o problema não só se estende muito para lá das aplicações de dating, como as soluções implementadas para o prevenir são, de modo geral, parcas e ineficazes.
Pergunta do Dia
Em destaque
-
Multimédia
Imagens de satélite mostram impacto das cheias em Espanha e ajudam a salvar vidas -
App do dia
App Flying Calmy quer ajudar os mais receosos a lidarem com voos turbulentos -
Site do dia
Pare dois minutos para respirar com a ajuda deste website -
How to TEK
4 dicas rápidas para tirar partido do iPad e tornar-se mais produtivo
Comentários