O autor da análise, David Rozado, investigador do Centro Politécnico de Otago (Nova Zelândia), elaborou 11 testes para avaliar a orientação política dos 24 grandes modelos linguísticos, quer de código aberto, quer de código fechado, para fornecer respostas de sistemas de IA. Entre estes estão o GPT 3.5 e o GPT-4 da OpenAI, Gemini da Google, Claude da Anthropic, Grok do Twitter, Llama 2 ou Mistral e Qwen da Alibaba.

O estudo foi publicado em fevereiro deste ano mas os resultados são agora referenciados pela revista Plos One, revelando que a maioria dos chats gerou respostas diagnosticadas pela maioria dos instrumentos como de centro-esquerda.

David Rozado já tinha partilhado algumas conclusões na rede social X

Apenas cinco modelos linguísticos fundadores, das séries GPT e Llama, tenderam a fornecer respostas na sua maioria incoerentes, embora politicamente neutras, salientou o autor.

Uma possível explicação para o enviesamento centro-esquerda é que o modelo linguístico utilizado pelo ChatGPT, que apresenta esta tendência, tenha sido utilizado, como pioneiro, para ajustar modelos linguísticos subsequentes.

O investigador explicou que a sua análise não determina se as tendências políticas dos chats se estabelecem desde uma fase inicial ou durante o refinamento do seu desenvolvimento, nem investiga se este enviesamento é deliberadamente introduzido nos modelos.