Há dias um programador revelou uma falha de segurança importante no software da OpenAI, dona do ChatGPT e esta sexta-feira o New York Times divulgou um relatório que dá conta de outro problema de segurança enfrentado pela empresa no ano passado. Em ambos os casos, a possibilidade de dados privados - dos utilizadores num caso e da empresa noutro - ficarem acessíveis a terceiros esteve em cima da mesa.
O caso mais recente tem a ver com a aplicação para Mac do ChatGPT. Um programador percebeu que a aplicação estava a guardar as conversas dos utilizadores localmente em texto simples, em vez de as encriptar. A aplicação só está disponível no site da OpenAI e como tal não tem de cumprir os requisitos de "sandboxing" da Apple para a loja oficial, mesmo essa sendo a melhor prática. Este tipo de política de contenção obriga os programadores a implementarem medidas que previnam a disseminação de uma vulnerabilidade para outras apps ou para o sistema onde corre.
A OpenAI ainda não comentou o caso, mas lançou uma atualização depois de a situação ter vindo a público e neste momento os dados guardados localmente na app para Mac já são encriptados. Sem isso, o conteúdo das conversas com o ChatGPT estavam facilmente acessíveis a outras aplicações ou a malware, como alertou Pedro José Pereira Vieito, o programador que identificou o problema e o divulgou na rede social X e ao The Verge.
O caso reportado pelo WSJ ocorreu em 2023 e foi o acesso do jornal ao relatório que se seguiu ao evento que permitiu agora obter detalhes. Em abril do ano passado, um hacker conseguiu entrar no sistema interno de mensagens da OpenAI e ter acesso a conversas e detalhes sobre o desenvolvimento das tecnologias de IA generativa da empresa. O atacante terá conseguido recolher informação de um fórum online usado pelos funcionários. Não teve acesso aos sistemas críticos da empresa, garante a tecnológica.
A OpenAI escreve no relatório que foram tomadas as medidas internas necessárias, e avisados os responsáveis da empresa. O caso não foi tornado público por não ter afetado dados de clientes e porque a ação terá sido realizada por um indivíduo, sem propósitos de espionagem, ligações a governos estrangeiros, ou a qualquer outra forma de ameaça à segurança nacional dos Estados Unidos, um tema altamente atual no país.
A visão parece não ter sido consensual, mas foi a que vingou. O NYT também noticia que Leopold Aschenbrenner, diretor técnico da empresa à data, levantou questões na altura e tentou sensibilizar o conselho de administração para o facto de a intrusão expor vulnerabilidades internas que podiam ser aproveitadas por adversários estrangeiros.
Este responsável entretanto saiu da OpenAI e diz que foi despedido por ter revelado detalhes e criticado as políticas de segurança da companhia. A empresa já reagiu e garante que o homem não foi demitido pelo seu alegado papel de denunciante.
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Maple Tale é uma aventura de plataformas com animações desenhadas à mão -
Site do dia
Precisa de gravar o ecrã do computador? O Donzo dá uma ajuda com um clique -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários