Há uma nova ferramenta de combate às teorias de conspiração: os chatbots de Inteligência Artificial. “Conversar sobre uma teoria de conspiração com um modelo linguístico de grande dimensão (LLM) reduziu 20% a crença das pessoas na mesma”, descobriu um estudo do MIT Sloan e da Universidade Cornell.
Os investigadores explicam que até os participantes que afirmaram que as suas crenças eram importantes para a sua identidade viram as suas convicções abaladas e recuaram nas suas “certezas”. E com efeitos duradouros.
O artigo foi publicado na revista Science, sendo capa da edição de setembro e poderá contribuir para a resolução do problema da disseminação de teorias de conspiração que aumentou com o surgimento da Internet.
“As descobertas podem representar um importante avanço no modo como interagimos e educamos as pessoas que defendem essas teorias infundadas”, clarifica Yunhao (Jerry) Zhang, investigador de pós-doutoramento afiliado no Instituto de Psicologia da Tecnologia, que estuda os impactos da IA na sociedade. Na prática, o estudo mostra que com os LLM “podemos, não diria resolver, mas pelo menos, mitigar o problema”, explica.
“A opinião de teóricos da conspiração é difícil de alterar”, assinala Thomas Costello, investigador afiliado do MIT Sloan e líder do estudo, acrescentando que poucas intervenções têm apresentado sucesso. “Parte do que o torna tão difícil é que diferentes pessoas tendem a apegar-se a partes distintas de uma teoria. O que significa que enquanto a apresentação de certas evidências factuais pode funcionar para uma pessoa, não há garantia de que seja eficaz noutra”, acrescenta Thomas Costello.
No entanto, os modelos de IA têm acesso a uma enorme quantidade de informação sobre múltiplos tópicos, tendo sido treinados na Internet. “Por isso, têm capacidade para adaptar contra-argumentos factuais às teorias da conspiração específicas nas quais as pessoas acreditam”, justifica.
Para enquadramento do estudo, e para justificar o quão perigosas podem ser as consequências de uma teoria de conspiração, os investigadores recordaram que a conspiração de que teria havido fraude nas eleições nos EUA levou a uma tentativa de insurreição em 6 de janeiro de 2021. E, na Alemanha, em agosto de 2020, outra conspiração que alegava que as restrições impostas relativamente à COVID-19 eram motivadas por intenções nefastas, desencadeou protestos violentos no edifício do parlamento do Reichstag, em Berlim. Há teorias da conspiração que se tornam ameaças para a democracia, lê-se no estudo.
Por isso, a equipa liderada por Thomas Costello investigou se dialogar com uma interface de IA generativa poderia convencer as pessoas a abandonar as suas crenças conspiratórias. Os 2.190 participantes humanos descreveram uma teoria da conspiração que subscreviam ao GPT-4 Turbo, um dos mais recentes LLM da OpenAI. Esta IA envolveu-se então em argumentos persuasivos que refutavam as crenças dos humanos com provas.
As respostas foram usadas para personalizar as reações do chatbot, que os investigadores instruíram para ser tão persuasivo quanto possível. Os participantes também indicaram o quão confiantes estavam de que a sua teoria da conspiração era verdadeira, numa escala de 0 (definitivamente falsa) a 100 (definitivamente verdadeira), e qual era a importância da teoria para sua compreensão do mundo. As conversas com o bot de IA desenvolveram-se em três rondas, para os investigadores poderem reunir um diálogo suficientemente substancial.
Após cada conversa, os participantes responderam às mesmas perguntas de avaliação. Posteriormente, 10 dias depois, os investigadores voltaram a falar com todos os participantes e novamente daí a dois meses para avaliar se as suas opiniões haviam mudado após a conversa com o bot de IA. Em média, a redução da crença na teoria da conspiração escolhida foi de 20%, “sugerindo que conversar com o bot mudou fundamentalmente a opinião de algumas pessoas”, conclui o estudo.
Em suma, a capacidade do chatbot de IA para sustentar contra-argumentos personalizados e conversas aprofundadas e personalizadas reduziu as crenças em conspirações durante meses, desafiando investigações anteriores que sugerem que tais crenças são imunes à mudança.
“Esta intervenção ilustra como a utilização da IA pode atenuar os conflitos e servir a sociedade”, lê-se no artigo científico. Jerry Zhang considera que, mesmo em ambiente de laboratório, “20% é um grande efeito na mudança das crenças das pessoas”. E acrescenta que “pode ser mais fraco no mundo real, mas 10% ou 5% ainda seria muito significativo.”
Os autores procuraram proteger-se contra a tendência de invenção de informações por parte dos modelos de IA (as alucinações) ao recorrer a um fact-checker profissional que avaliou uma amostra de 128 afirmações feitas pela IA. “99,2% eram verdadeiras, 0,8% eram enganosas e nenhuma era falsa”.
Os investigadores apontam algumas utilizações práticas para esta descoberta. Por um lado, em fóruns na Internet pode-se convidar aqueles que acreditam em teorias de conspiração a debater o tema com um chatbot. Por outro lado, as próprias redes sociais poderiam conectar-se a LLM para apresentar respostas corretivas a pessoas que compartilham teorias da conspiração, exemplifica Jerry Zhang.
Pergunta do Dia
Em destaque
-
Multimédia
Indiana Jones regressa de chicote para nova aventura em videojogo. Qual é o enigma do grande círculo? -
App do dia
A precisar de espaço no telefone? Transforme fotos grandes em ficheiros leves num instante -
Site do dia
Defina objetivos para a semana e siga-os diretamente do calendário da Google -
How to TEK
Saiba como definir o tempo limite que as crianças podem jogar Fortnite
Comentários