O estudo mostrou que os preconceitos entre robots com inteligência artificial podem ser desenvolvidos sem habilidades cognitivas, mas sim aprendendo entre si. Os investigadores referem que “grupos de máquinas autónomas podem demonstrar preconceitos simplesmente por identificarem, copiarem e aprenderem os comportamentos de uns dos outros”.

Este comportamento difere de outras experiências cujos algoritmos de IA demonstraram racismo e sexismo, mas baseados em aprendizagens sobre registos públicos e informações alimentadas pelos investigadores. É o caso do bot Tay, desenvolvido pela Microsoft.

Na nova experiência, os cientistas organizaram um jogo onde atribuíram aos robots a decisão de doar (e receber) a um elemento do seu grupo ou a de outra equipa, baseado na sua reputação individual, assim como a sua própria estratégia de doação, tendo em conta o nível de preconceito em relação aos elementos exteriores.

Como relata a experiência, à medida que o jogo se foi desenvolvendo, e depois do supercomputador de IA ter executado milhares de simulações, cada robot começou a aprender novas estratégias ao copiar os outros, tanto do seu grupo como de toda a população de máquinas em jogo. As máquinas foram atualizando os seus níveis de preconceito preferencialmente copiando aqueles que obtiveram melhores recompensas o mais rapidamente possível.

Nesse sentido, os investigadores concluíram que as habilidades cognitivas não são necessariamente um requisito para desenvolver preconceitos. Ainda existe um caminho a percorrer até os cientistas conseguirem desenvolver sistemas de IA que se mantenham neutros.