Este domingo, dia 25 de novembro, 18 países assinaram um novo acordo com vista a manter a segurança no desenvolvimento de inteligência artificial e para impedir que a tecnologia seja utilizada por criminosos.

Além dos Estados Unidos e do Reino Unido, entre os signatários contam-se Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria e Singapura, avança a Reuters.

No acordo, os signatários defendem que as empresas que desenvolvem sistemas de IA têm a responsabilidade de criar e implementar a tecnologia de forma a que os utilizadores, e o público em geral, sejam protegidos de usos indevidos.

O documento conta com uma série de recomendações de segurança, incluindo questões como monitorização de sistemas de IA para evitar abusos, proteção de dados e verificação de fornecedores de software. Fora do acordo ficam, no entanto, recomendações centradas nos usos da IA ou na recolha dos dados utilizados para treinar os modelos.

Líderes do G7 chegam a acordo sobre princípios para guiar desenvolvimento da inteligência artificial
Líderes do G7 chegam a acordo sobre princípios para guiar desenvolvimento da inteligência artificial
Ver artigo

O acordo afirma-se como uma das mais recentes iniciativas levadas a cabo por governos um pouco por todo o mundo para regular o desenvolvimento da IA.

O AI Act, o enquadramento legal para regular a utilização de IA na União Europeia, está a ser negociado entre o Parlamento Europeu e o Conselho da UE, com o objetivo de chegar a um acordo até ao final deste ano.

Do outro lado do Atlântico, Joe Biden assinou em outubro a primeira ordem executiva para regulamentar o uso de IA nos Estados Unidos. A ordem executiva endereça várias das preocupações que a administração Biden tem demonstrado nos últimos meses e segue um compromisso voluntário de 15 empresas, como Google, Microsoft, OpenAI e Meta.