A OpenAI está a apoiar um projeto de lei na Califórnia, EUA, que exigirá às empresas de tecnologia que identifiquem os conteúdos gerados por inteligência artificial. A medida visa aumentar a transparência e evitar a disseminação de informações falsas, face à preocupação geral sobre o impacto de deepfakes e outros conteúdos manipulados por IA.
Apresentado pela deputada Buffy Wicks, o projeto de lei AB 3211 já foi aprovado pela Assembleia estadual, com uma votação unanime. Avançará agora para uma votação no Senado estadual e, se aprovado, será encaminhado para o governador Gavin Newsom para promulgação ou veto, até ao final de setembro.
A OpenAI acredita que, para conteúdo gerado por IA, transparência e requisitos em torno da origem, como marca d'água, são importantes, de acordo com uma carta enviada à deputada Buffy Wicks, citada pela Reuters.
Em contraste, o SB 1047, um outro projeto de lei igualmente relacionado com a IA, que exige testes de segurança para modelos de IA, enfrenta resistência da indústria de tecnologia, incluindo da própria OpenAI.
No entanto, a criadora do ChatGPT defende que a identificação de conteúdo gerado por inteligência artificial, como memes e deepfakes, é crucial para proteger a integridade da informação, especialmente em anos eleitorais.
Pergunta do Dia
Em destaque
-
Multimédia
Foguetão Falcon 9 da SpaceX explode ao tentar pousar. Vídeo mostra como tudo aconteceu -
App do dia
Superliminal é um jogo de puzzles que utiliza ângulos de perspetiva para baralhar o jogador -
Site do dia
Relatório da União Europeia traz recomendações para mitigar riscos cibernéticos -
How to TEK
Dê mais cor e animação ao tema do browser de internet Edge através da IA
Comentários