Investigadores de inteligência artificial (IA) revelaram na sexta-feira que eliminaram mais de 2.000 ligações para imagens na Internet suspeitas de abuso sexual infantil, de uma base de dados utilizada para treinar ferramentas de IA para geração de imagens.
A base de dados de pesquisa LAION é um enorme banco de imagens e legendas online, que tem sido uma fonte para os principais criadores de imagens de IA, como Stable Diffusion e Midjourney.
Mas um relatório do ano passado do Stanford Internet Observatory descobriu que continha ligações para imagens sexualmente explícitas de crianças, contribuindo para a facilidade com que algumas ferramentas de IA conseguiram produzir deepfakes fotorrealistas que retratam crianças.
Este relatório de dezembro levou a LAION, organização sem fins lucrativos que significa Rede Aberta de Inteligência Artificial em Grande Escala, a remover imediatamente o seu conjunto de dados.
Oito meses depois, a LAION disse num blogue que trabalhou com o grupo de vigilância da Universidade de Stanford e com organizações antiabuso no Canadá e no Reino Unido para resolver o problema e libertar uma base de dados limpa para futuras pesquisas de IA.
O investigador de Stanford, David Thiel, autor do relatório de dezembro, elogiou a LAION pelas melhorias significativas, mas disse que o próximo passo era retirar da distribuição os “modelos contaminados” que ainda são capazes de produzir imagens de abuso infantil.
Uma das ferramentas baseadas no LAION que Stanford identificou como o “modelo mais popular para gerar imagens explícitas”, uma versão mais antiga e ligeiramente filtrada do Stable Diffusion, mantinha-se facilmente acessível até quinta-feira, quando a empresa Runway ML, sediada em Nova Iorque , a removeu do repositório de modelos de IA.
A Runway referiu na sexta-feira, em comunicado, que se tratou de uma “descontinuação planeada de modelos e códigos de investigação que não foram mantidos ativos”.
A versão limpa da base de dados LAION surge numa altura em que os governos de todo o mundo analisam mais de perto a forma como algumas ferramentas tecnológicas estão a ser utilizadas para criar ou distribuir imagens ilegais de crianças.
O procurador da cidade de São Francisco interpôs no início do mês uma ação judicial que visa encerrar um grupo de sites que permitem a criação de nus de mulheres e raparigas gerados por IA.
A alegada distribuição de imagens de abuso sexual de crianças na aplicação de mensagens Telegram faz parte do processo que levou as autoridades francesas a apresentarem acusações na quarta-feira contra o fundador e CEO da plataforma, Pavel Durov.
A detenção de Durov “sinaliza uma mudança realmente grande em toda a indústria tecnológica, de que os fundadores destas plataformas podem ser responsabilizados pessoalmente”, frisou David Evan Harris, investigador da Universidade da Califórnia, em Berkeley.
David Evan Harris contactou recentemente a Runway perguntando por que razão o problemático gerador de imagens de IA ainda estava acessível ao público, tendo sido retirado dias depois.
Pergunta do Dia
Em destaque
-
Multimédia
Entre o moderno e tradicional, as várias faces de Shenzen, o Silicon Valley da China -
App do dia
Identificação de plantas conta com a ajuda da PlantNet -
Site do dia
Sidenote é uma extensão para o Chrome que permite comentar ou falar ao vivo em qualquer página web -
How to TEK
Capte fotografias com maior qualidade com estas 8 dicas simples
Comentários