O regulador italiano da privacidade avisou a OpenAI que apurou novos dados na investigação que tinha iniciado no ano passado à dona do ChatGPT e que mantém as suspeitas de que a tecnologia está a violar as normas do Regulamento Geral da Privacidade. A OpenAI tem 30 dias para apresentar argumentos e defender-se das alegações.

Recorde-se que a GPDP tinha ordenado a suspensão temporária do ChatGPT no país em março, depois de uma falha de segurança no software do chatbot ter exposto dados de utilizadores. A medida visou obter informação junto da plataforma sobre a forma como é feita essa recolha massiva dos dados que utiliza, incluindo dados de utilizadores.

Mais em detalhe, o regulador italiano, defendia que não existem fundamentos legais que justifiquem a recolha e armazenamento dos dados pessoais que a empresa estava a utilizar para treinar o modelo de inteligência artificial generativa na base do chatbot. Além disso, e tendo em conta que o chatbot nem sempre gera informação correta, a GPDP temia que isso pudesse levar a abusos no que respeita ao uso de informação pessoal. Outra das questões apontadas tinha a ver com a falta de medidas previstas para impedir que crianças com menos de 13 anos usassem o chatbot, que as pode expor a conteúdos inapropriados.

A OpenAI aceitou implementar um conjunto de medidas que voltaram a permitir que o seu chatbot funcionasse no país, mas o regulador continuou a analisar o caso. Uma das medidas implementadas pela OpenAI após o bloqueio na Itália foi passar a dar aos utilizadores o direito de não autorizarem o uso dos seus dados pessoais para treinar os modelos de IA da empresa.

Da continuidade da análise às práticas da OpenAI terão resultado mais indícios de que a empresa continua a violar os princípios do RGPD, admite o regulador, sem fornecer mais detalhes sobre os pontos em questão. Na nota divulgada, explica-se apenas que a ação italiana terá em consideração as conclusões de um grupo de trabalho europeu que reúne os reguladores nacionais da privacidade.

Trabalhamos ativamente para reduzir o volume de dados pessoais no treino dos nossos sistemas como o ChatGPT”, garantiu já a OpenAI numa declaração citada pela Reuters, onde a empresa acrescenta que vai continuar a trabalhar de forma construtiva com o regulador.