
Os pais de um adolescente de 16 anos que se suicidou depois de longas conversas com o ChatGPT sobre o tema estão a processar a OpenAI, que desenvolveu o chatbot, e Sam Altman, o CEO e cofundador da empresa. A família norte-americana acredita que, para o desfecho trágico, foram cruciais os conselhos do assistente inteligente em diálogos sobre automutilação que duraram meses, antes de o jovem pôr fim à vida.
A acusação quer provar que o chatbot ajudou a validar os pensamentos suicidas do jovem e contribuiu para eles, ao fornecer informações detalhadas sobre métodos letais de automutilação.
Nos documentos do processo, indica-se que o chatbot deu conselhos ao jovem sobre formas de roubar álcool do bar onde os pais o guardavam, ajudou a encontrar desculpas para encobrir as marcas de uma tentativa falhada de suicidio e ofereceu-se para escrever uma carta de suicidio.
Os pais do jovem que morreu em abril querem provar que a OpenAI tem uma quota de responsabilidade no acontecimento, porque conscientemente colocou o lucro acima da segurança, com o lançamento da versão GPT-4o, lembrando que a valorização da empresa passou de 86 mil milhões de dólares, antes do lançamento, para mais de 300 mil milhões.
O GPT-4o representa um avanço significativo na capacidade de interagir do chatbot, que se tornou mais empático, capaz de identificar emoções no interlocutor e de comunicar mais à semelhança de um humano, características que a empresa também tem de saber que aumentam os riscos dessas interações para utilizadores vulneráveis, alegam os pais de Adam Raine.
O objetivo do processo é ver a empresa condenada por homicídio negligente e violações às leis de segurança do produto. Também pedem uma indemnização por danos morais, num valor não especificado.
Solicita-se ainda que a OpenAI seja obrigada a implementar mecanismos de verificação da idade dos utilizadores, a recusar pedidos de informação sobre técnicas de automutilação e a alertar os utilizadores sobre o risco de dependência psicológica.
A OpenAI já disse que lamenta a morte e sublinhou que a plataforma inclui medidas de segurança, como encaminhar os utilizadores para linhas de ajuda quando deteta situações de crise. A companhia também reconhece, no entanto, que estas salvaguardas funcionam melhor em interações curtas, do que em conversas mantidas ao longo de meses. Nessas interações longas podem “tornar-se menos confiáveis”, porque “partes do treino de segurança do modelo pode degradar-se”, explicou um porta-voz da empresa numa declaração citada pela Reuters.
A OpenAI já tinha abordado este tema, que não é a primeira vez que se coloca. Outras mortes de jovens têm sido associadas à interação com chatbots e à procura de apoio emocional em plataformas de inteligência artificial.
A empresa admitiu que está a trabalhar em novas formas de reforçar os mecanismos de segurança para situações deste género, através de novos controlos parentais ou de ligações a recursos de apoio humano. Uma das opções pode ser a ligação a uma rede de profissionais de saúde mental, que possam responder diretamente a solicitações ou situações suspeitas, dentro do próprio ChatGPT.
Pergunta do Dia
Em destaque
-
Multimédia
Battlefield 6 mantém o foco na destruição dos cenários na narrativa e combates multijogador -
App do dia
Ainda não sabe o que fazer nas férias? Aproveite para aprender uma nova língua com a LingQ -
Site do dia
Arquivo histórico do museu Harley-Davidson ganha mais vida com IA da Google -
How to TEK
Ofertas "incríveis" de emprego? Publicidade não solicitada? Saiba como lidar com as chamadas de spam
Comentários