
Um número alarmante de menores afirma ter conhecidos que criam nudes de amigos ou colegas de turma com recurso à inteligência artificial, segundo os resultados de um estudo realizado nos Estados Unidos.
Mais especificamente, um em cada dez indicou que os seus amigos ou colegas de turma usaram ferramentas de IA para criarem imagens não consensuais com esse propósito. Entre os inquiridos, outro um em cada dez afirmou que "prefere não dizer".
Conduzido pela organização sem fins lucrativos Thorn, que tem por missão desenvolver tecnologia para defender crianças de abuso sexual, o estudo colocou perguntas a 1.040 menores entre os nove e os 17 anos - com autorização dos seus progenitores - sobre conteúdos de abuso sexual infantil e "experiências online prejudiciais", tendo sido realizado entre 3 de novembro e 1 de dezembro de 2023.
"Embora a motivação por detrás desses eventos seja mais provavelmente motivada por comportamento adolescente do que pela intenção de abuso sexual, os danos às vítimas são reais e não devem ser minimizados e isentos de responsabilidade", sublinha-se no relatório, citado pela publicação 404 Media.
Realizada em parceria com a BSG, a pesquisa é uma das primeiras tentativas de medir a dimensão de um problema que se sabe existir de utilização das ferramentas de IA para gerar imagens não consensuais entre os mais novos - tal como entre os “mais velhos”.
Pergunta do Dia
Em destaque
-
Multimédia
DOOM: The Dark Ages é uma prequela da série passada num ambiente medieval negro -
App do dia
Já não consegue acompanhar o ritmo da sua agenda? Long Ago lembra-se de tudo por si -
Site do dia
Transforme o Chrome com novas ferramentas e widgets com a extensão Dashy -
How to TEK
Já pode pedir resumos de vídeos do YouTube ao Copilot. Conheça as novidades que chegaram ao Edge
Comentários