Um número alarmante de menores afirma ter conhecidos que criam nudes de amigos ou colegas de turma com recurso à inteligência artificial, segundo os resultados de um estudo realizado nos Estados Unidos.
Mais especificamente, um em cada dez indicou que os seus amigos ou colegas de turma usaram ferramentas de IA para criarem imagens não consensuais com esse propósito. Entre os inquiridos, outro um em cada dez afirmou que "prefere não dizer".
Conduzido pela organização sem fins lucrativos Thorn, que tem por missão desenvolver tecnologia para defender crianças de abuso sexual, o estudo colocou perguntas a 1.040 menores entre os nove e os 17 anos - com autorização dos seus progenitores - sobre conteúdos de abuso sexual infantil e "experiências online prejudiciais", tendo sido realizado entre 3 de novembro e 1 de dezembro de 2023.
"Embora a motivação por detrás desses eventos seja mais provavelmente motivada por comportamento adolescente do que pela intenção de abuso sexual, os danos às vítimas são reais e não devem ser minimizados e isentos de responsabilidade", sublinha-se no relatório, citado pela publicação 404 Media.
Realizada em parceria com a BSG, a pesquisa é uma das primeiras tentativas de medir a dimensão de um problema que se sabe existir de utilização das ferramentas de IA para gerar imagens não consensuais entre os mais novos - tal como entre os “mais velhos”.
Pergunta do Dia
Em destaque
-
Multimédia
Robot da Toyota regista recorde do Guinness no lançamento ao cesto mais distante -
Site do dia
AI Skills 4 All é o novo curso online gratuito da Microsoft para saber usar a Inteligência Artificial -
App do dia
Pronto para libertar o seu artista interior? Experimente esta app com inteligência artificial -
How to TEK
Não quer que a rede social X use os seus dados para treinar a IA? Saiba como desativar a conta
Comentários