A União Europeia está mais perto de ter uma regulação para a Inteligência Artificial, tornando-se pioneira a nível mundial nesta área, sobretudo pela abrangência da regulação definida no AI Act. A primeira proposta foi apresentada pela Comissão Europeia, ainda em 2021, mas já foi alvo de muitas alterações no Parlamento Europeu e na última semana uma maratona de negociações no trílogo de colegisladores, que envolve a Comissão Europeia, o Parlamento Europeu e o Conselho da UE, permitiu chegar a um acordo, ainda provisório, cujos contornos o SAPO TEK detalhou.

Algumas organizações internacionais reagiram rapidamente ao texto provisório e o SAPO TEK procurou perceber junto de alguns especialistas e intervenientes nesta área qual a perspetiva sobre o impacto da implementação, em termos de proteção dos direitos mas também da capacidade de inovação das empresas, face a outras regiões.

Maria Manuel Leitão Marques, eurodeputada, Paulo Dimas da Unbabel e do Center for Responsible AI e os advogados Elsa Veloso e João Leitão Figueiredo mostram-se satisfeitos com os termos gerais do acordo, elogiando um equilíbrio entre a inovação e a regulação, com proteção dos direitos fundamentais, mas apontam também algumas preocupações a ter em conta.

A deputada do Parlamento Europeu, Maria Manuel Leitão Marques, explicou ao SAPO TEK as principais preocupações no decurso da avaliação e negociação da proposta do Parlamento, explicando que os riscos foram analisados de forma cuidada.  Para enquadrar a conversa começou por sublinhar a perspetiva positiva que tem em relação à tecnologia.

Regulação da Inteligência Artificial vai avançar na Europa. O que pode mudar e quais são as multas?
Regulação da Inteligência Artificial vai avançar na Europa. O que pode mudar e quais são as multas?
Ver artigo

“Acho que a Inteligência Artificial pode ser usada para coisas que melhoram muito a nossa vida”, explica, apontando a identificação de casos de cancro por imagens, com maior rigor do que a análise humana, mas também outras experiências, entre as quais a prevenção do insucesso escolar. “São casos e protótipos reais, que já existem e que estão também a ser desenvolvidos em Portugal”, justifica.

Mesmo assim, e porque pode haver má utilização da tecnologia, diz que uma das áreas que se destacam nas proteções definidas no acordo são as que evitam discriminação das pessoas através de algoritmos, avaliação de emoções no trabalho, identificação biométrica massiva ou a classificação social (social scoring).

“Deixa-me muito contente que o acordo tenha estabelecido diferentes níveis de risco […] há temas que podem ter impacto nos direitos fundamentais, mas também houve preocupação de aumentar a transparência. Por exemplo, tenho o direito de saber que estou a falar com uma máquina”, exemplifica Maria Manuel Leitão Marques.

Nem tudo o que foi pedido pelo Parlamento Europeu em termos de salvaguardas acabou por ficar aplicado no acordo, mas a deputada diz que isso faz parte das negociações que têm de ser feitas nestas matérias. “Nos modelos de aplicação generalizada, como o ChatGPT e outros, a evolução é muito rápida e não sei se o que foi definido será suficiente”, explica, apontando também a proibição da utilização de dados biométricos para vigilância massiva, onde ficaram definidas várias exceções, nas aplicações militares e nas autoridades legais.

“Penso que ficou um texto equilibrado. É uma área que evolui rapidamente mas as listas de sistemas e situações de alto risco podem ser revistas”, defende Maria Manuel Leitão Marques.

Também Paulo Dimas vice-presidente de Inovação da Unbabel e CEO do Center for Responsible AI, tem uma visão positiva sobre o texto que saiu deste acordo. “"Foi com grande satisfação que no Center for Responsible AI vimos a aprovação do EU AI Act pelo Conselho e Parlamento Europeus na passada sexta-feira. A Europa é agora o continente mais avançado na criação de uma legislação em Inteligência Artificial, criando um equilíbrio entre inovação e regulação”, adiantou ao SAPO TEK.

Centro para a IA Responsável liderado pela Unbabel pede cinco alterações ao AI Act
Centro para a IA Responsável liderado pela Unbabel pede cinco alterações ao AI Act
Ver artigo

Os avanços na eliminação das barreiras para o desenvolvimento de modelos de linguagem abertos de grande escala é apontada como uma das conquistas da última revisão da regulação. “Este era um dos principais pontos referidos na nossa carta de posicionamento publicada em outubro”, afirma Paulo Dimas, lembrando que a colaboração à escala europeia no desenvolvimento destes modelos é estratégica para a Europa competir globalmente, preservando a língua e cultura de cada Estado Membro.

Apesar disso, vai aguardar pelo texto final para fazer uma análise mais aprofundada e o centro pretende “continuar a contribuir para que Portugal seja um participante ativo na criação de uma IA ética, responsável e centrada no desenvolvimento humano”.

Requisitos que as empresas têm de começar a preparar

Elsa Veloso, advogada e especialista em privacidade e proteção de dados, não foge à regra. Olhando para o acordo como um passo para que a União Europeia afirme a sua preferência pelo desenvolvimento ético de IA, e apesar de ser ainda provisório avisa que as empresas têm de começar a preparar-se.

A conjugação destes pontos torna premente que as entidades abrangidas preparem, desde já, modelos de governo de Inteligência Artificial, com base nos textos oficiais”, realça Elsa Veloso.

A previsão é que, depois das discussões técnicas que ainda podem levar a que sejam afinados detalhes no texto final do AI Act, com a aprovação a acontecer nos primeiros meses do ano, a aplicação do regulamento aconteça dois anos depois para as principais áreas, embora em alguns sistemas possa ser aplicável logo seis meses depois da publicação. E as entidades têm de evitar estar sujeitas às coisas previstas.

Os valores foram também alterados, e estão agora previstas coisas de 35 milhões de euros ou 7% do volume de negócios global volume de negócios global (consoante o maior valor) para uso de sistemas de IA proibidos, 15 milhões ou 3% por outras violações e 7,5 milhões ou 1,5% por declarar informação errada sobre sistemas de IA.

Preocupação com a identificação biométrica em tempo real

Para João Leitão Figueiredo, sócio de TMC da CMS Portugal, o acordo provisório que foi alcançado no dia 8 de dezembro vem reforçar a posição da União na regulação da tecnologia e, em última instância, na sua luta pela soberania tecnológica, e o advogado antecipa que o texto final procure assegurar um equilíbrio sensato entre a promoção da inovação e a salvaguarda dos direitos fundamentais e da segurança pública dos cidadãos.

As mudanças ao longo das negociações são vistas como favoráveis a estas duas áreas e destaca que “existem agora normas tão fundamentais, face ao contexto atual, como as que proíbem uso da IA para a manipulação subliminar de indivíduos, a exploração das vulnerabilidades ou a classificação social de cidadãos a partir da sua observação ao longo do tempo”.

Mas, mesmo assim, entendeu partilhar com o SAPO TEK alguns pontos que indica como críticos, nomeadamente a preocupação crescente com as potencialidades da Inteligência Artificial Generativa deveria justificar normas mais densas e técnicas, para lá dos princípios da transparência e de uma tutela genérica do direito de autor.

“Mais do que uma abordagem baseada no risco, será de questionar se as utilizações de modelos de inteligência artificial generativa não justificariam uma regulação mais especifica”, avisa João Leitão Figueiredo.

A utilização de sistemas de IA para identificação biométrica remota em tempo real nos espaços públicos, com as várias exceções previstas, é um dos principais pontos de preocupação sublinhados pelo advogado. “A inclusão destas medidas consubstancia uma alteração de princípio do modo de combate ao crime na UE, cuja utilização deve continuar a ser objeto de utilização muito ponderada, sob pena de poder abrir um caminho sem retorno para a vigilância de massas ou de possíveis utilizações discriminatórias, até porque falta uma definição clara para crimes "graves" no âmbito do Regulamento”, explica ao SAPO TEK.

No caso da proibição do policiamento preditivo e dos sistemas de reconhecimento de emoções em locais de trabalho e ambientes educativos, que foram também apontados pela eurodeputada Maria Manuel Leitão Marques, diz que estas medidas são parciais e que, “a longo prazo podem ser insuficientes pela perigosidade que poderão acarretar, sobretudo, em contextos de especial vulnerabilidade como os referidos”.

Para acompanhar as medidas João Leitão Figueiredo admite ainda que esperava que fossem acompanhadas de um anúncio de financiamento significativo para pesquisa e desenvolvimento da IA a nível europeu para promover e assegurar independência estratégica da UE no setor da IA, como acontecer com os semicondutores.

Aplicação e poderes reforçados para a Comissão Europeia

A deputada Maria Manuel Leitão Marques confessou ao SAPO TEK que uma das suas preocupações com o AI Act é também a aplicação da lei, referindo semelhanças no modelo com o DSA e o DMA, o regulamento dos mercados e serviços digitais, onde as competências de fiscalização das grandes empresas tecnológicas, com mercados globais, é responsabilidade da Comissão Europeia.

Vejo Estados Membros com muita dificuldade de se dotarem das competências fundamentais em áreas [de Inteligência Artificial] onde existe falta de recursos qualificados”, explica, admitindo a sua preocupação também com Portugal. Por isso considera que um modelo em que seja o executivo europeu, e não os Estados Membros, a aplicarem as regras é mais correto para que os regulamentos sejam cumpridos.

Como exemplo contrário, e negativo, indica o que aconteceu com o Regulamento Geral de Proteção de Dados (RGPD), onde existe uma grande diferença na forma de aplicação e entendimento das regras pelos países da UE, com Estados mais permissivos e outros mais restritivos.