O estudo mostrou que os preconceitos entre robots com inteligência artificial podem ser desenvolvidos sem habilidades cognitivas, mas sim aprendendo entre si. Os investigadores referem que “grupos de máquinas autónomas podem demonstrar preconceitos simplesmente por identificarem, copiarem e aprenderem os comportamentos de uns dos outros”.
Este comportamento difere de outras experiências cujos algoritmos de IA demonstraram racismo e sexismo, mas baseados em aprendizagens sobre registos públicos e informações alimentadas pelos investigadores. É o caso do bot Tay, desenvolvido pela Microsoft.
Na nova experiência, os cientistas organizaram um jogo onde atribuíram aos robots a decisão de doar (e receber) a um elemento do seu grupo ou a de outra equipa, baseado na sua reputação individual, assim como a sua própria estratégia de doação, tendo em conta o nível de preconceito em relação aos elementos exteriores.
Como relata a experiência, à medida que o jogo se foi desenvolvendo, e depois do supercomputador de IA ter executado milhares de simulações, cada robot começou a aprender novas estratégias ao copiar os outros, tanto do seu grupo como de toda a população de máquinas em jogo. As máquinas foram atualizando os seus níveis de preconceito preferencialmente copiando aqueles que obtiveram melhores recompensas o mais rapidamente possível.
Nesse sentido, os investigadores concluíram que as habilidades cognitivas não são necessariamente um requisito para desenvolver preconceitos. Ainda existe um caminho a percorrer até os cientistas conseguirem desenvolver sistemas de IA que se mantenham neutros.
Em destaque
-
Multimédia
SMART Play: LEGO quer dar mais vida às construções com blocos “inteligentes” -
App do dia
Bloop: a plataforma portuguesa que junta compras e redes sociais num só lugar -
Site do dia
Tenha acesso a todos os assistentes de IA num só local com o ChatLLM Teams -
How to TEK
Como tirar partido do Wi-Fi 7 no Windows 11 para acelerar a ligação à Internet?
Comentários