Os trabalhos em torno da regulação da inteligência artificial na União Europeia continuam a todo o vapor com o objetivo de tornar a tecnologia mais segura, mas também inovadora. O Parlamento Europeu aprovou recentemente o documento do AI Act, seguindo-se as negociações com os Estados-membros do Conselho da União Europeia, com o objetivo de chegar a acordo até ao final do ano.

A União Europeia revelou agora a introdução daquilo que chama de sistemas de “crash test” para inteligência artificial. O objetivo é que as novas inovações de IA sejam testadas a fundo, para que sejam dadas as garantias de que são seguras antes de chegarem ao mercado. Esta terça-feira foram lançados quatro instalações permanentes de teste e experimentos na Europa, num projeto que custou 220 milhões de euros, avança a Bloomberg.

AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
Ver artigo

Os centros são virtuais e físicos e vão começar a operar no próximo ano, disponibilizando aos fabricantes de tecnologia um espaço para testar a inteligência artificial e robótica em cenários da vida real, dentro das áreas do fabrico, cuidados de saúde, agricultura, alimentação e cidades. Dessa forma, espera-se que as empresas de inovação introduzam IA de confiança no mercado. Os centros de teste servirão para testar e validar os novos produtos.

No discurso de cerimónia de inauguração, Lucilla Sioli, diretora da IA e indústria digital da Comissão Europeia, destacou como a desinformação continua a ser um dos riscos principais com a introdução da inteligência artificial.

Um dos centros será gerido pela Universidade Técnica da Dinamarca e trata-se de uma versão digital do sistema de “crash test” europeu para novos automóveis. Estes centros vão servir como uma espécie de filtro de segurança entre os fornecedores de tecnologia e utilizadores na Europa. Vão servir também para ajudar a informar sobre as novas políticas públicas relacionadas com o tema.

Recorde-se que o AI Act estabelece obrigações, tanto para fornecedores como para utilizadores, tendo por base o nível de risco dos sistemas de IA. De acordo com a proposta, os sistemas de risco inaceitável são considerados uma ameaça e serão proibidos.

Entre estes sistemas de risco inaceitável estão aqueles que permitem uma manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos, como crianças; sistemas de pontuação ou crédito social, à semelhança dos que existem em países como a China; além de sistemas de sistemas de identificação biométrica em tempo real e à distância.