À medida que as negociações do AI Act entram na reta final, um conjunto de empresas e grupos tecnológicos alerta as altas instâncias da União Europeia para a possibilidade do regulamento ter um impacto negativo para a inovação no setor.

Numa nova carta, o grupo DigitalEurope afirma que há dois pontos em particular que necessitam de particular atenção: a questão dos modelos fundacionais, como aqueles que são utilizados pela OpenAI no ChatGPT, e o risco de existir uma falta de alinhamento entre o AI Act e a atual legislação do setor.

O grupo indica que apenas 8% das empresas europeias usam IA, um valor que está bem abaixo da meta de 75% proposta para 2030 nos objetivos da Década Digital. Além disso, só quase 3% de todos os “unicórnios” na área da IA têm origem na Europa.

A competitividade e estabilidade financeira dependem significativamente da capacidade das empresas europeias, e dos cidadãos, de implementarem IA em áreas-chave, como tecnologias ‘verdes’, saúde, produção ou energia”, realça o grupo.

Os signatários da carta defendem que, para que a Europa consiga demonstrar o seu potencial no “palco” digital global é necessário que as empresas europeias liderem na inovação em IA, usando modelos fundacionais.

AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
Ver artigo

O grupo afirma que existem várias empresas que estão a dar cartas nesta área, argumentando que uma regulamentação excessiva poderá fazer com que desapareçam ou que sejam obrigadas a deslocarem-se para outros países fora da UE.

Recorde-se que, em junho, o AI Act recebeu "luz verde" do Parlamento Europeu, num processo que seguiu a aprovação de novas emendas, que traçam medidas mais “apertadas” requisitos adicionais para serviços como o ChatGPT.

A proposta estabelece obrigações, tanto para fornecedores como para utilizadores, tendo por base o nível de risco dos sistemas de IA. De acordo com as regras, os sistemas de risco inaceitável são considerados uma ameaça e serão proibidos.

Entre estes sistemas estão aqueles que permitem uma manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos, sistemas de pontuação ou crédito social, além de sistemas de sistemas de identificação biométrica em tempo real e à distância.

Bruxelas pretende consenso de Estados-membros sobre a vigilância biométrica no regulamento da IA
Bruxelas pretende consenso de Estados-membros sobre a vigilância biométrica no regulamento da IA
Ver artigo

Note-se que, no caso da identificação biométrica, que tem sido um dos pontos de debate mais complicados no processo negocial em curso entre Parlamento Europeu, Comissão Europeia e Conselho da UE, existem exceções relativamente aos sistemas à distância “à posteriori”, onde a identificação só ocorre com um atraso significativo.

Nos sistemas de alto risco incluem-se os que são usados em produtos abrangidos por legislação europeia de segurança e aqueles que se enquadram em áreas específicas e que terão de ser registados numa base de dados da UE.

Tendo em conta as recentes emendas feitas ao texto da proposta, o AI Act indica que sistemas de IA generativa, incluindo plataformas como o ChatGPT, têm de cumprir requisitos de transparência.

Após a aprovação do Parlamento Europeu, tiveram início as negociações com os Estados-Membros no Conselho da UE para decidir a versão final do AI Act, com o objetivo de chegar a acordo até ao final deste ano.