Um novo estudo, elaborado por cientistas nos Estados Unidos, indica que as nossas percepções sobre inteligência artificial podem mudar a forma como os chatbots respondem. 

De acordo com os investigadores, que publicaram as suas conclusões num artigo na revista científica Nature Machine Intelligence, o objetivo do estudo passou por verificar quanta empatia e eficácia era atribuída a chatbots tendo em conta as percepções dos participantes. 

Para tal, os investigadores organizaram 310 participantes em três grupos, pedindo a cada um deles que interagisse com um chatbot com IA concebido para ajudar pessoas a gerirem a sua saúde mental. 

Ao primeiro grupo foi indicado que o chatbot era “neutro”. Já ao segundo foi dito que o chatbot foi treinado para ter mais empatia e, ao terceiro, os investigadores avisaram os participantes que a solução com que iriam interagir era manipuladora e tinha intenções maliciosas. 

Metade dos participantes em cada grupo interagiram com um chatbot baseado no modelo GPT-3 da OpenAI. A outra metade tinha de falar com o chatbot ELIZA, desenvolvido pelo MIT nos anos 60 e com capacidades muito menos sofisticadas de processamento de linguagem natural. 

Chatbots com IA: o que são, para que servem e como tirar mais partido? Veja as opções mais populares
Chatbots com IA: o que são, para que servem e como tirar mais partido? Veja as opções mais populares
Ver artigo

Os resultados mostram que as indicações dadas pelos investigadores tiveram um poder de influência significativo na imagem mental que os participantes tinham dos chatbots

Apenas 44% dos participantes a quem foram dadas indicações negativas acreditavam nos chatbots. Por contraste, 88% dos participantes a quem foram dadas indicações positivas acreditavam que os chatbots demonstravam mais empatia. As capacidades da tecnologia também são um dos factores a jogo e estes efeitos eram mais significativos no caso do chatbot mais avançado. 

A forma como as pessoas conversavam com os chatbots também mudou consoante o grupo. Quem acreditava que a IA era mais empática tinha maior tendência para interagir de maneira mais positiva, algo que se refletia nas respostas dos chatbots. O oposto se passava nos casos onde foram dadas indicações negativas. 

Os cientistas concluem que indicações como aquelas que foram dadas no estudo podem ter um grande impacto nas percepções dos utilizadores. Esta situação pode ser aproveitada para propósitos potencialmente nefastos, levando-os a depositar demasiada confiança nos chatbots e a seguir informação que não é verdadeira. 

Agora, a equipa de investigadores quer perceber como é que as interações seriam afetadas quando os chatbots são concebidos para contrariar as percepções dos utilizadores. Outro dos objetivos futuros é usar o que foi aprendido no estudo para ajudar a melhorar aplicações que usam IA.