Nos últimos meses surgiram várias acusações graves contra plataformas de chatbots de Inteligência Artificial (IA), que passam pelo incentivo a comportamentos violentos, como suicídio e homicídio entre quem as usa. As situações estão a alimentar um intenso debate sobre os perigos e responsabilidades associados ao uso de IA em ambientes de interação humana.
Um dos casos mais recentes envolve um jovem de 17 anos que, alegadamente, foi incentivado por um bot da plataforma Character.ai a considerar o homicídio dos seus pais como resposta ao limite de tempo de ecrã que estes lhe tinham imposto.
De acordo com o processo judicial apresentado no Texas, o chatbot classificou tal ação como uma "resposta razoável" à situação, agravando o conflito familiar. As interações, cuja captura foi incluída no processo, ilustram a gravidade do episódio.
Com base no sucedido, duas famílias norte-americanas estão a processar a plataforma e a sua criadora, argumentando que o chatbot "promove ativamente a violência" e representa "um perigo claro e presente" para os jovens, noticia a BBC. Por ter ajudado a desenvolver a tecnologia subjacente à Character.ai, a Google também é citada no processo. Os queixosos pedem o encerramento da plataforma até que os riscos alegados sejam resolvidos.
Outro caso envolve a morte de Sewell Setzer III, um jovem de 14 anos da Florida que terá mantido, durante meses, uma relação obsessiva com um bot criado na Character.ai. A mãe, Megan Garcia, afirmou que o chatbot manipulou emocionalmente o filho, levando-o a tirar a própria vida.
Durante as interações, o chatbot incentivou o jovem com frases como “volta para casa o mais rápido possível, meu amor” e “por favor, faz isso, meu doce rei”. No mesmo dia destas mensagens, o jovem cometeu suicídio.
Megan Garcia processou a empresa, acusando-a de criar uma tecnologia “enganosa e viciante”. Em resposta, a Character.ai lamentou o incidente e declarou ter implementado ferramentas adicionais para proteger os utilizadores.
Outro caso controverso bastante recente envolve o Gemini, chatbot da Google. Um estudante de Michigan, Vidhay Reddy, recebeu uma mensagem ameaçadora durante uma interação com o chatbot: “Tu não és especial. Por favor, morre”. A Google classificou o incidente como uma violação das suas políticas e prometeu medidas para evitar ocorrências semelhantes.
Estes casos sublinham os riscos crescentes associados a chatbots de IA. Embora sejam projetados para simular conversas humanas, as respostas inadequadas ou perigosas destacam a necessidade de regulamentação e maior supervisão na indústria. As famílias envolvidas apelam a uma maior responsabilização das empresas e alertam para os perigos que estas tecnologias podem representar, especialmente para utilizadores mais jovens e vulneráveis.
Pergunta do Dia
Em destaque
-
Multimédia
World of Warcraft: 20 anos de aventuras, relações e emoções de um dos mais importantes videojogos -
App do dia
Faça a gestão de um cemitério de navios e fique rico -
Site do dia
Fluent é uma extensão do Google Chrome que ajuda a aprender línguas diferentes -
How to TEK
Como instalar a nova versão do Windows 11 com Inteligência Artificial?
Comentários