Por Vera Lúcia Raposo (*)
Recentemente, o Parlamento Europeu aprovou o Regulamento Inteligência Artificial, a primeira tentativa a nível mundial de estabelecer um quadro jurídico para a inteligência artificial (IA), o qual se pretende compreensivo e detalhado. Para o comum cidadão, a questão que se coloca é a de saber de que forma é que este Regulamento irá alterar a nossa vida.
O principal alvo do Regulamento IA não são as pessoas que a usam (embora inclua algumas normas destinadas aos que a utilizem a título profissional), mas aqueles que desenvolvem e produzem os sistemas de IA por ele abrangidos, o que corresponde a uma parte substancial da IA que existe atualmente. Indiretamente, porém, acabará por nos afetar – positiva ou negativamente, depende da perspetiva – a todos, na medida em que a IA faz já parte da nossa vida, mesmo em campos insuspeitos. Basta pensar que um sistema de IA terá provavelmente otimizado o cultivo de muitos dos alimentos que comemos, ou que as luzes dos semáforos que encontramos a cada esquina são “geridas” por IA, já para não falar das Siris e das Alexas que acompanham o nosso quotidiano.
Os semáforos são, aliás, uma boa analogia para explicar o conteúdo do Regulamento IA.
A luz vermelha deste Regulamento vai para os sistemas considerados de risco proibido. O artigo 5.º indica quais são eles, considerando o elevado risco que colocam para a saúde, segurança e direitos fundamentais. Em boa verdade, muitos destes sistemas já se deparam atualmente com limitações legais, sendo estas, na prática, difíceis de contornar. Veja-se, por exemplo, “a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet”, que será proibida pelo artigo 5.º, n.º 1 e) deste Regulamento, mas que já hoje dificilmente encontra fundamento legal no Regulamento Geral sobre a Proteção de Dados.
Com luz verde encontramos os sistemas de IA de baixo risco, para os quais apenas se exigem obrigações de transparência (artigo 50.º), entendidas aqui como a obrigação de informar a pessoa humana que interage com o sistema acerca da presença de IA. Ou seja, teremos de ser informados de que o deepfake (vídeos ou áudios criados por IA que parecem reais) é fabricado e que o chatbot (sistemas de IA que simulam conversas escritas ou faladas com outro humano) é uma máquina.
Com luz amarela encontram-se os sistemas de IA considerados de risco elevado de acordo com o artigo 6.º, sendo que a maior parte dos sistemas de IA hoje no mercado encaixa-se aqui. Não são proibidos, mas a sua entrada no mercado depende do preenchimento de exigentes requisitos. É certo que muitos destes sistemas de IA estavam já submetidos a um quadro legal exigente por força de normas preexistentes. Caso paradigmático é o dos dispositivos médicos com IA, já regulados pelo Regulamento dos Dispositivos Médicos, e que serão cumulativamente sujeitos aos novos e mais exigentes requisitos do Regulamento IA. Este “empilhamento” de normas, com exigências várias e nem sempre compatíveis, arrisca-se a barrar muitos sistemas de IA. Por exemplo, poderemos ter dispositivos médicos com IA que não conseguirão ter luz verde por falta de explicabilidade, não obstante o seu elevado grau de precisão. Resta saber quão viáveis serão algumas destas exigências, o que, por sua vez, dependerá da forma como, na prática, elas serão aplicadas. Estas respostas irão depender da interpretação que venha a ser feita das normas pelas autoridades competentes e pelos tribunais, em particular pelo Tribunal de Justiça da União Europeia.
Os modelos de IA de de finalidade geral (artigos 51.º e ss.) não constavam da versão inicial do Regulamento e foram incluídos mais tarde, quando o ChatGPT e sistemas semelhantes irromperam no nosso dia a dia. A estes não se aplica o modelo descrito, estando sujeitos a mais ou menos obrigações consoante acarretem ou não “riscos sistémicos”.
Por congruência, finalizo com a analogia do semáforo. Tal como um semáforo contribui para o fluxo rodoviário e para a segurança nas estradas, um regulamento bem estruturado de IA pode garantir que avançamos rumo ao futuro da tecnologia com confiança, respeitando os direitos humanos e fomentando um desenvolvimento que beneficie a sociedade como um todo. Porém, até os melhores semáforos avariam. Espero que este não deixe passar tudo, criando um choque em cadeia, nem pare indefinidamente o trânsito com uma luz vermelha constante.
(*) Professora da NOVA School of Law - NOVA University of Lisboa
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários