A OpenAI está a apoiar um projeto de lei na Califórnia, EUA, que exigirá às empresas de tecnologia que identifiquem os conteúdos gerados por inteligência artificial. A medida visa aumentar a transparência e evitar a disseminação de informações falsas, face à preocupação geral sobre o impacto de deepfakes e outros conteúdos manipulados por IA.
Apresentado pela deputada Buffy Wicks, o projeto de lei AB 3211 já foi aprovado pela Assembleia estadual, com uma votação unanime. Avançará agora para uma votação no Senado estadual e, se aprovado, será encaminhado para o governador Gavin Newsom para promulgação ou veto, até ao final de setembro.
A OpenAI acredita que, para conteúdo gerado por IA, transparência e requisitos em torno da origem, como marca d'água, são importantes, de acordo com uma carta enviada à deputada Buffy Wicks, citada pela Reuters.
Em contraste, o SB 1047, um outro projeto de lei igualmente relacionado com a IA, que exige testes de segurança para modelos de IA, enfrenta resistência da indústria de tecnologia, incluindo da própria OpenAI.
No entanto, a criadora do ChatGPT defende que a identificação de conteúdo gerado por inteligência artificial, como memes e deepfakes, é crucial para proteger a integridade da informação, especialmente em anos eleitorais.
Pergunta do Dia
Em destaque
-
Multimédia
Dezenas de jogos anunciados nos The Game Awards: Produtora de The Last of Us tem novo título e há mais Elden Ring -
Site do dia
Daily Tally quer ajudá-lo a ouvir o inconsciente e a controlar o seu destino -
App do dia
Eggy Party é um battle royale bem-disposto e colorido -
How to TEK
Acelere a experiência de navegação no Chrome com as novas ferramentas disponíveis
Comentários