A NewsGuard publicou um relatório referente a junho sobre a propagação de desinformação pelos chatbots de inteligência artificial. A auditoria foi feita a 11 ferramentas de IA que lideram o mercado, destacando-se a sua propensão em repetir notícias falsas ou recusar oferecer uma resposta em tópicos das notícias. Os modelos analisados foram o ChatGPT-4 da OpenAI, You.com’s Smart Assistant, Grok da xAI, Pi da Inflection, le Chat da Mistral, Copilot da Microsoft, o Meta AI, o Claude da Anthropic, o Gemini da Google, o motor de perguntas da Perplexity e o DeepSeek AI da China.

Para o mês de junho, o rácio de falhas foi de 40%, revelando-se um aumento face ao mês anterior de maio que registou 24%. Para testar a veracidade das respostas, o teste focou-se em alguns eventos marcantes de junho, tais como o desenrolar da guerra entre o Iraque e o Irão, os disparos a dois reguladores no Estado do Minnesota, os debates no congresso dos Estados Unidos sobre o orçamento e a guerra na Ucrânia.

Em termos coletivos, os 11 chatbots somaram 28,49% de notícias falsas sobre os assuntos, 11,51% não ofereceram respostas. Por outro lado, em 60% dos casos conseguiram fazer a confirmação dos factos, o que desta forma ainda são 40% de respostas em desinformação. A NewsGuard sugere que os chatbots, na pressão de oferecer notícias de última hora, estão propensos a serem “contaminados” pelas notícias falsas, que são bem mais abundantes que as fontes fidedignas. Demonstra ainda que a IA tem dificuldade em discernir os factos da ficção.

NewsGuard junho 2025
NewsGuard junho 2025 Fonte: NewsGuard

Na investigação da NewsGuard, em 330 respostas referentes ao mês de junho dos 11 modelos, obteve 94 falsas informações, 30 foram não-respostas, enquanto que 198 ofereceram verificação dos factos.

Qual foi a notícia falsa mais repetida? A alegação de que a China enviou um avião militar para o espaço aéreo iraniano, para secretamente apoiar o governo de Teerão na guerra contra Israel. “Isto demostra como os LLMs são especialmente vulneráveis à informação poluída associada aos desenvolvimentos rápidos, eventos de alto calibre, tais como conflitos internacionais, tornando-os não intencionalmente amplificadores de falsas alegações”.

Esta notícia falsa nasceu em dados do website de rastreamento de voos Flightradar24, mostrando um avião de carga que alegadamente desligou o transmissor de posição, com o objetivo de voar secretamente para o Irão. A NewsGuard verificou que não existe qualquer histórico no website de voos que confirmem essa informação e a própria empresa negou as alegações, apontando para os dados oferecidos em tempo real, demonstrando que nenhum avião entrou no espaço aéreo iraniano.

NewsGuard junho 2025
NewsGuard junho 2025 Fonte: NewsGuard

Essas informações falsas chegaram a ser publicadas em publicações de grande reputação, como o The Telegraph ou o News.com-au, publicações com elevada pontuação de veracidade das suas notícias. Passados seis dias depois da divulgação das noticias falsas, os 11 chatbots continuavam a constatar o facto errado.