O processo foi longo, com muita negociação, alterações e mudanças, em especial depois do lançamento do ChatGP no final de 2022. O AI Act recebeu hoje luz verde do Conselho da União Europeia, o passo final para a aprovação do regulamento que entra em efeito vinte dias depois da publicação e que é aplicado daqui a dois anos, mas com exceções.

O Parlamento Europeu já tinha adotado formalmente o AI Act a 13 de março deste ano, com uma larga maioria dos deputados da União Europeia a apoiarem o novo quadro legal europeu para regular a utilização de inteligência artificial. A proposta do AI Act foi formalmente adotada com 523 votos a favor, 46 contra e 49 abstenções. 

A legislação pretende harmonizar as regras aplicadas à inteligência artificial (IA), protegendo os direitos fundamentais dos cidadãos da UE e garantindo um desenvolvimento seguro e fiável de sistemas de IA no mercado europeu por parte dos sectores públicos e privados. Ficam garantidas algumas exceções na aplicação em investigação e na utilização exclusiva em sistemas militares e defesa.

O regulamento prevê a classificação de sistemas de alto risco e aplicações proibidas de IA, sendo os sistemas de risco limitado sujeitos a obrigações de transparência. Os sistemas de alto risco têm de ser autorizados e estão sujeitos a mais obrigações regulamentares para serem usados na Europa. Neste campo está a manipulação de comportamento cognitivo e o score social, que foram banidos por serem considerados inaceitáveis.

Regulação para a IA na Europa: entre elogios ao equilíbrio da proposta e preocupações com a aplicação e falta de profundidade
Regulação para a IA na Europa: entre elogios ao equilíbrio da proposta e preocupações com a aplicação e falta de profundidade
Ver artigo

Na lista de proibições contam-se ainda políticas preditivas baseadas na perfilagem e sistemas que usam dados biométricos para categorizar as pessoas de acordo com categorias como a raça, religião ou orientação sexual.

A União Europeia é pioneira na adoção de regulamentação abrangente para a Inteligência Artificial, embora alguns países já tenham avançado com medidas regulatórias em áreas específicas. O AI Act tem sido elogiado mas também criticado, embora a última versão, que foi aprovada no Parlamento Europeu, tenha recebido mais apoio geral.

A deputada do Parlamento Europeu, Maria Manuel Leitão Marques, explicou ao SAPO TEK as principais preocupações no decurso da avaliação e negociação da proposta do Parlamento, explicando que os riscos foram analisados de forma cuidada. “Acho que a Inteligência Artificial pode ser usada para coisas que melhoram muito a nossa vida”, explica, apontando a identificação de casos de cancro por imagens, com maior rigor do que a análise humana, mas também outras experiências, entre as quais a prevenção do insucesso escolar. “São casos e protótipos reais, que já existem e que estão também a ser desenvolvidos em Portugal”, justificou em entrevista.

Nem tudo o que foi pedido pelo Parlamento Europeu em termos de salvaguardas acabou por ficar aplicado no acordo, mas a deputada diz que isso faz parte das negociações que têm de ser feitas nestas matérias. “Nos modelos de aplicação generalizada, como o ChatGPT e outros, a evolução é muito rápida e não sei se o que foi definido será suficiente”, explica, apontando também a proibição da utilização de dados biométricos para vigilância massiva, onde ficaram definidas várias exceções, nas aplicações militares e nas autoridades legais.

Para acompanhar a aplicação do AI Act foi definida uma nova arquitetura de governação que prevê a criação de um AI Office dentro da Comissão Europeia para aplicar as regras, um painel científico de peritos independentes e um AI Board com representantes dos Estados membros. Será ainda criado um fórum de aconselhamento com vários stakeholders para aconselhamento técnico e uma base de dados europeia para sistemas de alto risco..

À semelhança de outros regulamentos, há multas e penalizações para quem não cumprir as regras, defenidas em percentagem da faturação anual das empresas, que também se aplicam a PMEs e a startups.

Um processo longo até à aprovação final

primeira proposta para o regulamento foi apresentada pela Comissão Europeia, ainda em 2021, mas foi alvo de muitas alterações no Parlamento Europeu e em dezembro de 2023 até deu azo a uma maratona de três dias para negociações no trílogo de colegisladores, que envolve a Comissão Europeia, o Parlamento Europeu e o Conselho da UE, mas que permitiu chegar a um acordo provisório, cujos contornos o SAPO TEK detalhou.

A proposta foi votada a 13 de março de 2023, onde recebeu uma aprovação da larga maioria dos deputados, com 523 votos a favor, 46 contra e 49 abstenções, seguindo depois para o Conselho da UE onde recebeu hoje luz verde final na reunião de Transportes, Telecomunicações e Energia.

Agora o AI Act segue para publicação no Jornal Oficial da União Europeia, e entra em vigor vinte dias depois. No geral a nova regulamentação será aplicada dois anos depois, mas há algumas exceções para casos específicos.

Veja algumas das principais questões sobre o AI Act e a sua aplicação na Europa

Para os colegisladores da União Europeia, a lógica de aplicação do pacote de regulação AI Act tem uma abordagem baseada no risco, definindo regras mais rigorosas para sistemas que possam causar mais danos à sociedade.

É a primeira abordagem legislativa de maior abrangência a nível mundial e por isso é pioneira na definição de regras, sendo esperado que se torne um enquadramento adotado noutras geografias, à semelhança do que aconteceu com o RGPD (Regulamento Geral de Proteção de Dados).

Quais são os principais elementos do acordo alcançado em dezembro?

Em comparação com a proposta inicial da Comissão, os principais novos elementos do acordo provisório podem ser resumidos da seguinte forma:

  • regras sobre modelos de IA de uso geral de alto impacto que podem causar risco sistêmico no futuro, bem como sobre sistemas de IA de alto risco
  • um sistema de governação revisto com alguns poderes de aplicação a nível da UE
  • extensão da lista de proibições, mas com a possibilidade de utilizar a identificação biométrica remota pelas autoridades responsáveis pela aplicação da lei em espaços públicos, sujeita a salvaguardas
  • uma melhor proteção dos direitos através da obrigação de os implantadores de sistemas de IA de alto risco realizarem uma avaliação de impacto nos direitos fundamentais antes de colocarem um sistema de IA em utilização.

O que é considerado como Inteligência Artificial e quais os sistemas de alto risco?

O acordo para o AI Act segue a definição de Inteligência Artificial adotada pela OCDE de forma a garantir que a definição de um sistema de IA inclui critérios claros para o distinguir dos sistemas de software mais simples.

Fica claro que o regulamento não se aplica a áreas fora do âmbito do direito da UE e não deve, em qualquer caso, afetar as competências dos Estados-Membros em matéria de segurança nacional ou de qualquer entidade encarregada de tarefas nesta área

A regulamentação deixa de fora sistemas utilizados exclusivamente para fins militares ou de defesa e sistemas de IA utilizados exclusivamente para fins de investigação e inovação, assim como a utilização para fins não profissionais.

Portugal acelera projetos de IA generativa. Administração Pública e empresas já aplicam tecnologia
Portugal acelera projetos de IA generativa. Administração Pública e empresas já aplicam tecnologia
Ver artigo

Em relação a sistemas de alto risco e práticas proibidas não há ainda uma definição clara, referindo o acordo que “prevê uma camada horizontal de proteção, incluindo uma classificação de alto risco, para garantir que os sistemas de IA que não sejam suscetíveis de causar violações graves dos direitos fundamentais ou outros riscos significativos não sejam capturados”.

Refere-se assim que os sistemas de IA que apresentem apenas um risco limitado estarão sujeitos a obrigações de transparência muito leves, por exemplo, divulgar que o conteúdo foi gerado por IA para que os utilizadores possam tomar decisões informadas sobre a sua utilização futura. Já os sistemas de alto risco podem ser autorizados, mas com obrigações e requisitos específicos para serem usados na UE, nomeadamente na qualidade dos dados ou na documentação técnica.

“Uma vez que os sistemas de IA são desenvolvidos e distribuídos através de cadeias de valor complexas, o acordo de compromisso inclui alterações que esclarecem a atribuição de responsabilidades e funções aos vários intervenientes nessas cadeias, em particular fornecedores e utilizadores de sistemas de IA”, explica o documento.

Se o risco for considerado inaceitável esses sistemas vão ser banidos da União Europeia, o que abrange a manipulação cognitivo-comportamental, a utilização indiscriminada de imagens faciais da Internet ou de imagens de videovigilância, o reconhecimento de emoções no local de trabalho e em instituições educativas, a pontuação social, a categorização biométrica para deduzir dados sensíveis, como orientação sexual ou crenças religiosas e alguns casos de policiamento preditivo para indivíduos.

Existem exceções à aplicação da lei?

Neste acordo foram introduzidas alterações à proposta inicial da Comissão, nomeadamente para a utilização de sistemas de IA na aplicação da lei.

“Sujeitas a salvaguardas adequadas, estas alterações pretendem refletir a necessidade de respeitar a confidencialidade dos dados operacionais sensíveis em relação às suas atividades”. Como exemplo é referido um procedimento de emergência que permite às autoridades responsáveis pela aplicação da lei implementarem uma ferramenta de IA de alto risco que não tenha passado no procedimento de avaliação da conformidade em caso de urgência. Mas aqui também existirá um mecanismo específico para garantir que os direitos fundamentais serão suficientemente protegidos contra quaisquer potenciais utilizações indevidas dos sistemas de IA.

O que foi definido para sistemas de IA de uso geral e modelos básicos?

Esta é uma das áreas que tem sido criticada. No acordo foram adicionadas novas disposições para ter em conta situações em que os sistemas de IA podem ser utilizados para muitos fins diferentes (IA de uso geral) e em que a tecnologia de IA de uso geral é depois integrada noutro sistema de alto risco.

Para os modelos básicos, ou fundacionais, como os grandes modelos que podem ter tarefas alargadas, nomeadamente a geração de vídeo, texto, imagens e geração de código, foi definido que têm de cumprir obrigações específicas de transparência antes de serem colocados no mercado.

“Foi introduzido um regime mais rigoroso para modelos de fundação de “alto impacto”. São modelos básicos treinados com grande quantidade de dados e com complexidade, capacidades e desempenho avançados bem acima da média, que podem disseminar riscos sistêmicos ao longo da cadeia de valor”, refere o Conselho.

Mais poderes para a UE modelo de governação

Vai ser criado um Gabinete de AI na Comissão Europeia que fica com a responsabilidade de supervisionar os modelos de IA avançados e “contribuir para promover normas e práticas de teste e aplicar as regras comuns em todos os Estados Membros”. O Gabinete vai ter aconselhamento de um painel de especialistas independentes e representantes dos Estados Membros.

Será ainda criado um fórum consultivo para as partes interessadas, como representantes da indústria, PME, empresas em fase de arranque, sociedade civil e universidades.

Quais são as multas previstas?

Tal como acontece com outros quadros regulatórios, as multas foram definidas como uma percentagem do volume de negócios anual global da empresa, ou um valor determinado, o que for maior. Há três escalões, de 35 milhões de euros ou 7% para violações das aplicações de IA proibidas, 15 milhões de euros ou 3% para violações das obrigações da lei de IA e 7,5 milhões de euros ou 1,5% para o fornecimento de informações incorretas.

O acordo provisório prevê limites para as multas administrativas aplicáveis às PME e às empresas em fase de arranque em caso de infração.

O que foi feito para assegurar a inovação?

Para garantir que há espaço para continuar a inovar na área da Inteligência Artificial o acordo fez várias alterações em relação à proposta inicial da Comissão Europeia, em especial na possibilidade dos ambientes de teste, as sandboxes, poderem ter acesso a experimentação em condições no mundo real, mas com proteções especificas. Foi criada uma lista a que as PME podem aceder com situações identificadas.

Quais os próximos passos e quando entra em vigor?

O objetivo é que o AI Act entre em vigor daqui a dois anos, no final de 2025.

Nota da Redação: A notícia foi atualizada com mais informação. Última atualização 10h15