
Um número alarmante de menores afirma ter conhecidos que criam nudes de amigos ou colegas de turma com recurso à inteligência artificial, segundo os resultados de um estudo realizado nos Estados Unidos.
Mais especificamente, um em cada dez indicou que os seus amigos ou colegas de turma usaram ferramentas de IA para criarem imagens não consensuais com esse propósito. Entre os inquiridos, outro um em cada dez afirmou que "prefere não dizer".
Conduzido pela organização sem fins lucrativos Thorn, que tem por missão desenvolver tecnologia para defender crianças de abuso sexual, o estudo colocou perguntas a 1.040 menores entre os nove e os 17 anos - com autorização dos seus progenitores - sobre conteúdos de abuso sexual infantil e "experiências online prejudiciais", tendo sido realizado entre 3 de novembro e 1 de dezembro de 2023.
"Embora a motivação por detrás desses eventos seja mais provavelmente motivada por comportamento adolescente do que pela intenção de abuso sexual, os danos às vítimas são reais e não devem ser minimizados e isentos de responsabilidade", sublinha-se no relatório, citado pela publicação 404 Media.
Realizada em parceria com a BSG, a pesquisa é uma das primeiras tentativas de medir a dimensão de um problema que se sabe existir de utilização das ferramentas de IA para gerar imagens não consensuais entre os mais novos - tal como entre os “mais velhos”.
Pergunta do Dia
Em destaque
-
Multimédia
Xiaomi "ataca" Porsche e automóveis de alta cilindrada com o elétrico SU7 Ultra abaixo dos 70 mil euros -
App do dia
Mister Antonio: Salte entre planetas e resolva desafios para agradar a um gato muito exigente -
Site do dia
Tem uma montanha de tarefas pela frente? Esta extensão ajuda a manter tudo organizado a partir do browser -
How to TEK
Aumente a privacidade e “tape os ouvidos” ao seu smartphone
Comentários