Os trabalhos em torno da regulação da inteligência artificial na União Europeia continuam a todo o vapor com o objetivo de tornar a tecnologia mais segura, mas também inovadora. O Parlamento Europeu aprovou recentemente o documento do AI Act, seguindo-se as negociações com os Estados-membros do Conselho da União Europeia, com o objetivo de chegar a acordo até ao final do ano.
A União Europeia revelou agora a introdução daquilo que chama de sistemas de “crash test” para inteligência artificial. O objetivo é que as novas inovações de IA sejam testadas a fundo, para que sejam dadas as garantias de que são seguras antes de chegarem ao mercado. Esta terça-feira foram lançados quatro instalações permanentes de teste e experimentos na Europa, num projeto que custou 220 milhões de euros, avança a Bloomberg.
Os centros são virtuais e físicos e vão começar a operar no próximo ano, disponibilizando aos fabricantes de tecnologia um espaço para testar a inteligência artificial e robótica em cenários da vida real, dentro das áreas do fabrico, cuidados de saúde, agricultura, alimentação e cidades. Dessa forma, espera-se que as empresas de inovação introduzam IA de confiança no mercado. Os centros de teste servirão para testar e validar os novos produtos.
No discurso de cerimónia de inauguração, Lucilla Sioli, diretora da IA e indústria digital da Comissão Europeia, destacou como a desinformação continua a ser um dos riscos principais com a introdução da inteligência artificial.
Um dos centros será gerido pela Universidade Técnica da Dinamarca e trata-se de uma versão digital do sistema de “crash test” europeu para novos automóveis. Estes centros vão servir como uma espécie de filtro de segurança entre os fornecedores de tecnologia e utilizadores na Europa. Vão servir também para ajudar a informar sobre as novas políticas públicas relacionadas com o tema.
Recorde-se que o AI Act estabelece obrigações, tanto para fornecedores como para utilizadores, tendo por base o nível de risco dos sistemas de IA. De acordo com a proposta, os sistemas de risco inaceitável são considerados uma ameaça e serão proibidos.
Entre estes sistemas de risco inaceitável estão aqueles que permitem uma manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos, como crianças; sistemas de pontuação ou crédito social, à semelhança dos que existem em países como a China; além de sistemas de sistemas de identificação biométrica em tempo real e à distância.
Pergunta do Dia
Em destaque
-
Multimédia
Imagens de satélite mostram impacto das cheias em Espanha e ajudam a salvar vidas -
App do dia
O seu telefone é “esperto” o suficiente? A app Geekbench AI quer servir como tira-teimas -
Site do dia
Tem boa capacidade de observação? Então tente encontrar as personagens em i-Spy -
How to TEK
4 dicas rápidas para tirar partido do iPad e tornar-se mais produtivo
Comentários