Já sabemos que a inteligência artificial pode ser usada para coisas boas, mas também para coisas menos boas e foi esta última vertente que colocou a Apple “em xeque” nos últimos dias. A gigante tecnológica foi avisada pelo 404 Media, de que teria na sua loja de aplicações editores de imagem que alegavam poder “criar imagens de nudez não consensuais”, com recurso a modelos de IA.
O aviso teve por base um relatório feito pelo site que analisou o facto de algumas empresas estarem a fazer publicidade no Instagram para promoverem apps capazes de “despir qualquer miúda de graça”. Segundo o 404 Media, alguns desses anúncios levavam os utilizadores diretamente à App Store.
A Apple não terá respondido inicialmente ao pedido de comentário do 404 Media, enviado na última segunda-feira, mas depois acabou por entrar em contato com a publicação para solicitar mais informação.
“A Apple removeu várias aplicações de criação de imagens de IA da App Store depois de a 404 Media descobrir que essas aplicações anunciavam a capacidade de criar imagens de nudez não consensuais, um sinal de que as lojas de apps estão a começar a tomar mais medidas contra esse tipo de conteúdos”, pode ler-se.
No total, a Apple removeu três aplicações da App Store, mas apenas depois de receber os links diretos para os anúncios e as páginas específicas das mesmas na loja, enviados pelo 404 Media, acrescenta-se .
Em destaque
-
Multimédia
Sweekar quer ser um Tamagotchi para os tempos modernos (com IA incluída) -
App do dia
Acompanhe satélites, planetas e fenómenos espaciais com a AstroAlert -
Site do dia
#PressPlayTogether incentiva pais e filhos a jogar em conjunto com mais responsabilidade e segurança -
How to TEK
Tem iPhone atualizado com o iOS 26? Saiba como tirar partido das novas ferramentas das mensagens
Comentários