Chatbots como o ChatGPT são úteis, mas, à medida que a sua adoção cresce, cada vez mais pessoas recorrem a estas ferramentas para pedir apoio emocional ou ajuda para lidar com desafios pessoais e os resultados estão a gerar preocupação.

A imprensa internacional tem noticiado vários casos de utilizadores cuja saúde mental entra em declínio depois de desenvolverem uma ligação emocional com o chatbot. Surgem, por exemplo, casos de pessoas que foram hospitalizadas após episódios de delírio, mas também de quem acaba por pôr um fim à sua vida.

Como aponta o The Guardian, o fenómeno está a ser descrito “como psicose induzida por ChatGPT” e especialistas alertam que usar IA em momentos de crise emocional pode agravar ainda mais a situação, uma vez que estas ferramentas não foram feitas para substituir profissionais qualificados.

Depois de enfrentar várias críticas sobre fAlhas na resposta a fenómenos como este, a OpenAI anunciou um conjunto de alterações no funcionamento do seu chatbot. Em comunicado, a empresa liderada por Sam Altman reconhece que a “IA pode parecer mais responsiva e pessoal do que outras tecnologias anteriores, especialmente para pessoas vulneráveis que estejam a passar por momentos de maior sofrimento mental ou emocional”.

A OpenAI admite que existiram casos em que o modelo 4o, que “alimenta” o ChatGPT, “não conseguiu reconhecer adequadamente sinais de delírios ou de dependência emocional”. A tecnológica afirma que vai continuar a melhorar os seus modelos e a desenvolver ferramentas que permitam dar resposta a estas falhas.

A partir de agora, o ChatGPT vai apresentar lembretes para encorajar os utilizadores a fazerem pausas. Além disso, em vez de responder diretamente a questões sobre desafios pessoais, o chatbot vai ajudar os utilizadores a refletir sobre estes temas e a "pesar" os prós e contras.

OpenAI | Novas funcionalidades no ChatGPT
OpenAI | Novas funcionalidades no ChatGPT O ChatGPT vai passar a alertar os utilizadores quando têm sessões ativas durante demasiado tempo, incentivando-os a fazer pausas. créditos: OpenAI

Recentemente, num episódio do podcast This Past Weekend com o comediante Theo Von, Sam Altman, já tinha alertado que usar o ChatGPT para encontrar respostas para problemas pessoais não era uma boa ideia, lembrando que, ao contrário do que sucede com um terapeuta, um médico ou um advogado, não há confidencialidade entre os utilizadores e o chatbot.

Para o ajudar a tirar o maior partido do chatbot da OpenAI, assim como de outras ferramentas de IA semelhantes, e a tomar decisões mais informadas, reunimos cinco tópicos que deve mesmo manter fora das suas conversas.

  • Diagnósticos e conselhos sobre saúde

O ChatGPT não deve ser usado como uma ferramenta de diagnóstico para possíveis condições de saúde, sejam elas físicas ou mentais. O mesmo se aplica aos casos em que está à procura de conselhos sobre alguma doença que já tem ou receia ter, ou em que quer interpretar os resultados de análises ou exames.

Além de questões relacionadas com a falta de precisão ou veracidade da informação, é necessário ter em conta que os dados que introduz não estão protegidos pelas mesmas regras de confidencialidade que guiam os profissionais de saúde.

Como afirma a OpenAI, o ChatGPT até o pode ajudar a preparar um conjunto de perguntas para colocar ao médico da próxima vez que for ao consultório. Mas é preciso ter cuidados redobrados, não incluindo qualquer tipo de informação que o possa identificar, explica Jennifer King, especialista do Stanford Institute for Human-Centered Artificial Intelligence, ao The Wall Street Journal.

  • Conselhos financeiros ou jurídicos

Da mesma forma que não é um médico, o ChatGPT não é um advogado nem um contabilista. É certo que o chatbot pode ajudar a “descodificar” conceitos complexos, mas não deve ser utilizado para preencher documentos legais, fazer declarações fiscais ou tomar decisões com impacto financeiro ou jurídico real.

Por mais que descreva detalhadamente o caso que pretende resolver, um chatbot não conhece a sua realidade. Além disso, a informação com que foi treinado pode estar desatualizada, o que significa que pode não refletir as alterações que vão sendo feitas nos regulamentos fiscais ou nas normas jurídicas, resultando em erros com consequências graves.  

Como avisam vários especialistas, quando estão em causa questões sérias, o melhor é mesmo confiar num profissional. Não se esqueça que a confidencialidade é também um fator importante e, ao introduzir dados como número de contribuinte, declarações de rendimentos ou credenciais bancárias, pode ficar exposto a riscos de segurança que incluem fraudes, roubo de identidade ou ciberataques.

  • Conteúdos ilegais ou potencialmente perigosos

Falar com chatbots sobre atividades ilegais que cometeu ou tentar obter instruções sobre práticas perigosas, como fabricar substâncias ilícitas, aceder ilegalmente a sistemas informáticos, entre muitas outras formas de fugir à lei, é não só perigoso como pode ter consequências legais sérias.

No mesmo episódio do podcast This Past Weekend, Sam Altman alertou que as conversas com o ChatGPT podem ser exigidas como prova em processos legais. “Se falar com o ChatGPT sobre algo sensível e houver depois um processo judicial, podemos ser obrigados a disponibilizar essa informação”, realçou o responsável.

  • Informação pessoal confidencial

Nunca deve introduzir informação como nome completo, moradas, ou quaisquer dados que o possam identificar pessoalmente. Em casos de fuga de dados, a sua informação pode ser explorada por cibercriminosos. Até mesmo em tarefas que parecem inofensivas, como pedir ajuda para atualizar um currículo, evite incluir este tipo de dados nos prompts.

Pode ser tentador recorrer ao ChatGPT para rever emails, resumir notas de reuniões ou analisar documentos do trabalho. Mas, novamente, os dados que introduz não estão assim tão protegidos quanto pensa. 

Partilhar documentos internos, notas de reuniões privadas ou qualquer outro tipo de informação de trabalho confidencial pode representar uma violação dos seus deveres profissionais ou até de confidencialidade contratual. O mesmo se aplica à partilha de dados de clientes ou de informação privada de terceiros.

Importa também lembrar que os chatbots de IA não funcionam como “cofres” digitais onde pode armazenar de maneira segura as suas passwords, credenciais de acesso a plataformas, ou PINs. Nestes casos, deve optar por ferramentas concebidas especificamente para esse fim, como os gestores de passwords.

  • Desafios pessoais

“Devo terminar uma relação?”, “Está na altura de mudar de carreira?” ou “É melhor afastar-me desta pessoa?” são exemplos de perguntas a evitar nas suas conversas com o ChatGPT. O chatbot pode parecer compreensivo e solidário, mas não está preparado para dar respostas adequadas a questões sobre dilemas pessoais e com impacto significativo no seu bem-estar, decisões de vida complexas ou questões éticas delicadas.

Ao contrário dos humanos, as ferramentas de IA não têm capacidades de inteligência emocional e, em certos casos, até podem fazer interpretações incorretas da realidade que está a tentar transmitir numa conversa, resultando em respostas potencialmente prejudiciais, em particular, nos casos em que os utilizadores estão mais emocionalmente fragilizados.

Importa relembrar que, se está a atravessar uma crise e precisa de apoio, deve procurar pessoas que o possam escutar, compreender e orientar, sejam familiares, amigos ou profissionais de saúde.