Por Vasco Mendes de Almeida (*) 

Após o lançamento do ChatGPT, a OpenAI virou novamente o mundo tecnológico de pernas para o ar com a apresentação do GPT-4, o mais recente sistema de Inteligência Artificial capaz, segundo a própria empresa, de "gerar, editar e interagir com os utilizadores em tarefas criativas e técnicas de escrita, tais como escrita de canções, guiões ou aprendizagem de estilos de escrita".

O GPT-4 é o modelo linguístico mais avançado para o ChatGPT, introduzindo melhorias significativas no sistema, tais como a capacidade de ler, processar e extrair informação relevante de imagens (enquanto que o GPT-3.5 estava limitado ao texto); maior capacidade de processar informação em interações com utilizadores (cerca de 64.000 palavras, em comparação com 8.000 no seu antecessor); e maior eficiência nas interações em outros idiomas, para além do inglês. Tudo isto faz do ChatGPT uma ferramenta promissora para os utilizadores e, mais importante ainda, para a sua aplicação em vários domínios empresariais.

No entanto, o progresso considerável que se conseguiu no mundo dos negócios não teve o mesmo progresso em termos éticos. Um aspecto, em particular, que continua a minar a ética do sistema e a sua orientação para o bem comum: a falta de explicabilidade.

A explicabilidade é - juntamente com a beneficência, a não maleficência, a autonomia e a justiça - um dos princípios fundamentais que, de acordo com o prestegiado Professor italiano Luciano Floridi, determinam o carácter ético de um sistema de inteligência artificial. O conceito integra as ideias de 'inteligibilidade' e 'responsabilidade' e faz alusão à transparência na conceção e processo interno que os algoritmos seguem para selecionar e processar dados, a partir dos quais os sistemas estabelecem padrões e tomam decisões. Sem explicabilidade, a responsabilidade não pode ser delimitada, nem pode ser garantida a imparcialidade e privacidade do sistema, outras pedras basilares da IA ética.

O GPT-4, no entanto, não conta com a "explicabilidade" entre as suas novas características. O documento técnico que acompanha o lançamento do sistema não fornece quaisquer detalhes sobre a sua arquitetura, tamanho do modelo, hardware, capacidade computacional para formação, construção de conjuntos de dados ou métodos de formação. O GPT-4 continua a ser uma caixa negra, que não sabemos de onde extrai os dados que o alimentam e treinam, nem como os utiliza. Em resumo: embora tenha sido desenvolvido pela OpenAI, continua a ser um sistema fechado e fundamentalmente opaco. Isto impede, entre outras coisas, o controlo externo do funcionamento do algoritmo, bem como a falta de conhecimento da sua finalidade e utlizações.

Em Itália, recentemente, foi anunciada a suspensão do serviço do ChaGPT, pelo fato deste não conseguir verificar a idade dos seus utilizadores e por não respeitar a legislação sobre dados pessoais. Foi também encontrada uma falha de segurança no ChatGPT, que possibilidou revelar detalhes de conversas de utilizadores assim como dados de pagamento, dos clientes da versão premium. A decisão foi imediata, a 31 de março, e a Open AI arrisca uma multa que pode atingir a valor de 20 milhões de euros.

À Itália seguiu-se a Alemanha, onde já se está a analisar a forma como a OpenAI e o ChatGPT processam os dados dos utilizadores. Também em França e na Irlanda os reguladores estão em contacto com as autoridades italianas de forma a analisar as bases da medida. Em Portugal, a Comissão Nacional de Proteção de Dados (CNPD), que avaliou a decisão tomada pela autoridade de proteção de dados italiana, afirmou que, para já, não existem intenções de seguir o exemplo. A CNPD não irá iniciar nenhuma investigação, mas sim esperar pela discussão desta temática ao nível do Comité Europeu.

No passado dia 17, os eurodeputados encarregues pela elaboração da futura lei sobre a IA da União Europeia, apelaram à realização de uma cimeira internacional para a regulamentação de sistemas tecnólgicos, onde o ChatGPT está inserido. A carta, endereçada à presidente da Comissão Europeia e ao presidente norte-americano, junta 12 eurodeputados, que acreditam ser necessário uma atenção especializada à questão.

A relevância do sistema e o seu impacto - potencial e em muitos casos já real - na nossa sociedade e economia, exigem a abertura das caixas negras dos sistemas de IA. Como sociedade, devemos exigir sistemas de IA que sejam éticos e, portanto, transparentes e explicáveis. Precisamos de saber para que são concebidos, de que dados se alimentam e como os selecionam, processam e utilizam para o seu próprio desenvolvimento 'cognitivo'.

O GPT-4 representa um progresso indubitável na corrida pela IA e as capacidades empresariais que esta oferece. Mas representa também uma estagnação ética infeliz. E já sabemos que, no mundo tecnológico, aquele que estagna e não avança, retrocede.

Em relação às implicações éticas do OpenAI e do GPT-4, é importante que a comunidade científica, empresas e governos trabalhem juntos para estabelecer diretrizes claras para a utilização da inteligência artificial. É fundamental que o desenvolvimento e o uso dessas tecnologias tenham em consideração as consequências sociais, económicas e políticas que podem surgir. A responsabilidade ética deve ser um elemento central em todas as etapas do desenvolvimento da IA, desde a conceção do modelo até à implementação.

(*) Diretor de Digital Business Technologies (DBT) da Minsait em Portugal