O Centro para a IA Responsável, liderado pela Unbabel, publicou esta semana uma carta de posicionamento sobre o AI Act, o quadro legal europeu que vai regular a utilização da inteligência artificial na União Europeia.

São cinco as alterações ao AI Act, propostas pelo consórcio. A primeira pede que o texto legal considere a possibilidade de testar produtos de alto risco em condições reais, de forma controlada, em vez de proibir completamente essa possibilidade.

Este é um dos pontos polémicos da proposta legislativa europeia, que tem ambições de se transformar numa referência mundial em termos de regulação da IA de forma responsável. Muitos temem que algumas salvaguardas possam ser demasiado restritivas e bloquear a inovação e capacidade competitiva na região em áreas de fronteira e este é um dos tópicos que mais levanta esses receios.

Na carta, os signatários defendem que “a inovação de produtos assenta na capacidade de efetuar iterações rápidas que derivam, em grande medida, do feedback inicial dos clientes”.

A proposta atual proíbe, em todas as situações, o ensaio de produtos de alto risco em condições reais, uma restrição que remete os produtos de alto risco que carecem de validação prévia para ensaios nas chamadas “sandboxes”. O grupo defende, como outros atores do sector têm alertado, que isto pode “abrandar significativamente o ritmo da inovação, colocando a Europa numa situação de desvantagem competitiva”.

Permitir ensaios limitados no mundo real, em condições controladas, “promoveria um ambiente mais favorável à inovação de produtos na Europa, mantendo simultaneamente uma abordagem equilibrada da gestão dos riscos”, sublinha-se.

Os promotores do centro português pedem também que sejam eliminadas as barreiras ao desenvolvimento de foundation models em open-source e que sejam revistas algumas disposições relativas a estes modelos fundacionais.

Recorda-se que o contributo do software open source para o PIB da União Europeia variará entre os 65 mil milhões e 95 mil milhões de euros e que estas ferramentas são fundamentais para que PME e entidades com menos recursos inovem e consigam competir com as grandes empresas. A proposta legislativa atual prevê um conjunto de condicionantes aos modelos fundacionais open-source que o centro defende que sejam eliminadas, para não limitar a inovação colaborativa que é a base do modelo open source.

Sugere-se ainda que o quadro legal europeu reforce as preocupações e obrigações ambientais, para além daquilo que já prevê e que está essencialmente direcionado para os sistemas de alto risco. Pede-se ainda “uma maior clareza na regulação”.

Neste último ponto, a nota vai essencialmente para as disposições do texto no que refere à alteração da classificação de um sistema de IA para alto risco e obrigações associadas. O grupo pede que o texto seja mais claro sobre quando e como as obrigações associadas a esse sistema se alteram.

O Centro explica que as recomendações pretendem contribuir para clarificar o impacto do AI Act no desenvolvimento humano, de forma que impulsione a inovação, promover a democratização da tecnologia e aumentar a literacia sobre os termos utilizados.

A posição do Centro para a IA Responsável reflete a visão do consórcio criado no âmbito de uma das agendas mobilizadoras do Plano de Recuperação e Resiliência, que se propõe desenvolver 21 novos produtos, baseados em princípios e tecnologias de IA responsável. O consórcio integra 10 startups, oito centros de investigação, uma sociedade de advogados e cinco grandes empresas.

“Em vez de olharmos para a regulamentação como uma restrição, esta deve ser vista como um facilitador da inovação, garantindo a aceitação pública e promovendo a diferenciação empresarial. A Inteligência Artificial responsável não é somente uma opção, é a única forma possível de avançar na IA”, sublinha Virgínia Dignum, membro do Comité de Ética do Centro de IA Responsável e do High-Level Advisory Board on AI das Nações Unidas.

O posicionamento do Centro de IA Responsável foi tornado público na semana em que decorreu o AI Safety Summit, uma das maiores conferências mundiais realizadas até à data para discutir a inteligência artificial, dos pontos de vista da regulação e da segurança. Pode encontrar mais detalhes sobre cada uma das propostas online.

O AI Act está a percorrer os passos necessários na orgânica da União Europeia para se transformar no regulamento de referência para toda a região. A expectativa é que o processo legislativo esteja concluído até ao final do ano. Depois da aprovação em junho pelo Parlamento Europeu, de um texto já com uma série de emendas à versão inicial, decorrem as negociações com os Estados-membros, no âmbito do Conselho da União Europeia, para se chegar a uma versão final do texto.

No próximo dia 25 de novembro, na Fundação Champalimaud, decorre o Center for Responsible AI Fórum. Durante o evento, que vai contar com a presença do neurocientista António Damásio, vão ser demonstrados 10 produtos desenvolvidos no Centro de IA Responsável. O consórcio conta com um financiamento de 78 milhões de euros do PRR.