
A OpenAI está a apoiar um projeto de lei na Califórnia, EUA, que exigirá às empresas de tecnologia que identifiquem os conteúdos gerados por inteligência artificial. A medida visa aumentar a transparência e evitar a disseminação de informações falsas, face à preocupação geral sobre o impacto de deepfakes e outros conteúdos manipulados por IA.
Apresentado pela deputada Buffy Wicks, o projeto de lei AB 3211 já foi aprovado pela Assembleia estadual, com uma votação unanime. Avançará agora para uma votação no Senado estadual e, se aprovado, será encaminhado para o governador Gavin Newsom para promulgação ou veto, até ao final de setembro.
A OpenAI acredita que, para conteúdo gerado por IA, transparência e requisitos em torno da origem, como marca d'água, são importantes, de acordo com uma carta enviada à deputada Buffy Wicks, citada pela Reuters.
Em contraste, o SB 1047, um outro projeto de lei igualmente relacionado com a IA, que exige testes de segurança para modelos de IA, enfrenta resistência da indústria de tecnologia, incluindo da própria OpenAI.
No entanto, a criadora do ChatGPT defende que a identificação de conteúdo gerado por inteligência artificial, como memes e deepfakes, é crucial para proteger a integridade da informação, especialmente em anos eleitorais.
Pergunta do Dia
Em destaque
-
Multimédia
TUGA quer explorar a mobilidade como serviço por terra (e também pelo ar?) -
App do dia
DuckDuckGo tem uma nova ferramenta para conversar de maneira privada com chatbots de IA -
Site do dia
Phase é uma plataforma gratuita que ajuda designers a criar animações simples -
How to TEK
Como partilhar facilmente uma palavra-passe com um familiar próximo através do smartphone?
Comentários