Desde 2019 que o Bumble recorre a machine learning para proteger os seus utilizadores de nudes não solicitadas. O internamente designado, Private Detector, analisa imagens enviadas entre users para determinar se estas exibem conteúdo inapropriado e embora tenha sido concebido para travar imagens de órgãos genitais, o software já evoluiu e é agora capaz de impedir a disseminação de outros tipos de conteúdo, nomeadamente selfies onde a pessoa surge sem camisola ou fotografias de armas - ambos proibidos no Bumble.

Atualmente, quando é enviada uma fotografia destas, a miniatura que surge na conversa é censurada e o destinatário é questionado sobre se quer ver o conteúdo, bloqueá-lo ou reportar o remetente.

O Bumble anunciou que vai tornar o Private Detector num software de código aberto, o que significa que este vai poder ser livremente utilizado. A framework está já disponível no Github. "Esperamos que uma boa fatia da comunidade tecnológica adote esta funcionalidade para tornar a internet num lugar mais seguro", explicou a empresa.

Nota o Engadget que um estudo de 2016 concluiu que cerca de 57% das mulheres que utilizam aplicações de dating já se sentiram assediadas nas mesmas. Um mais recente, de 2020, indica que mais de 70% das jovens com idade compreendida entre os 12 e os 18 já receberam fotografias com nudez explícita não solicitada, o que significa que, online, o problema não só se estende muito para lá das aplicações de dating, como as soluções implementadas para o prevenir são, de modo geral, parcas e ineficazes.