Com a IA a mudar os hábitos de pesquisa online, uma equipa de investigadores da Universidade Yale, nos Estados Unidos, decidiu avaliar se a crescente dependência de ferramentas como os AI Overviews ou chatbots, à semelhança do ChatGPT ou o Gemini, podem afetar a maneira como as pessoas compreendem acontecimentos históricos.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Citado em comunicado, Daniel Karell, principal autor do estudo, lembra que, no passado, se quiséssemos saber mais sobre um determinado tema, recorriamos a uma enciclopédia ou, já nos tempos da Internet, consultávamos a Wikipédia.
“Agora, basta perguntar ao ChatGPT ou pesquisar no Google para obter um resumo gerado por IA”, aponta. “Cada vez mais, a informação em que confiamos está a ser organizada por ferramentas criadas por empresas”.
A equipa de investigadores mostrou aos participantes do estudo um conjunto de resumos de acontecimentos históricos, alguns escritos por humanos e outros gerados por IA, avaliando depois o que conseguiam recordar da informação apresentada.
Segundo os dados partilhados, os participantes que leram resumos gerados por IA responderam corretamente a mais perguntas do que aqueles que tinham textos escritos por humanos.
Os investigadores, que partilharam as suas conclusões num artigo na revista científica Social Science Computer Review, notam que, mesmo quando sabiam que os textos tinha sido gerado por IA, os participantes aprendiam mais com eles.
“As pessoas recordaram melhor os factos depois de ler a versão gerada por IA do que a versão escrita por especialistas”, afirma Daniel Karell. “É como se o modelo [de IA] pegasse na Wikipédia e a tornasse mais fácil de ler.”
A equipa nota também que o conteúdo gerado por IA também influenciava as opiniões políticas. Num artigo relacionado, publicado na revista científica PNAS Nexus, os investigadores analisaram de que forma é que a leitura dos resumos afetava as opiniões dos participantes sobre temas ligados aos acontecimentos históricos.
“Se o resumo gerado por IA tinha um tom liberal, as pessoas respondiam com opiniões mais liberais do que aquelas que leram o resumo da Wikipédia”, explica Daniel Karell. “Se tinha um tom conservador, as opiniões mudaram nesse sentido”.
O investigador indica que este efeito pode ser atribuído à capacidade dos modelos para apresentarem a informação de forma mais estruturada e persuasiva.
“Podemos imaginar um modelo de linguagem de grande escala a começar com algo como um artigo da Wikipédia e a transformá-lo, tornando o texto mais fluido, envolvente e fácil de memorizar”, afirma. “Um padrão semelhante pode explicar o efeito persuasivo: o modelo pode apresentar os factos de uma maneira que parece mais apelativa e, por isso, mais convincente”.
