O estudo mostrou que os preconceitos entre robots com inteligência artificial podem ser desenvolvidos sem habilidades cognitivas, mas sim aprendendo entre si. Os investigadores referem que “grupos de máquinas autónomas podem demonstrar preconceitos simplesmente por identificarem, copiarem e aprenderem os comportamentos de uns dos outros”.
Este comportamento difere de outras experiências cujos algoritmos de IA demonstraram racismo e sexismo, mas baseados em aprendizagens sobre registos públicos e informações alimentadas pelos investigadores. É o caso do bot Tay, desenvolvido pela Microsoft.
Na nova experiência, os cientistas organizaram um jogo onde atribuíram aos robots a decisão de doar (e receber) a um elemento do seu grupo ou a de outra equipa, baseado na sua reputação individual, assim como a sua própria estratégia de doação, tendo em conta o nível de preconceito em relação aos elementos exteriores.
Como relata a experiência, à medida que o jogo se foi desenvolvendo, e depois do supercomputador de IA ter executado milhares de simulações, cada robot começou a aprender novas estratégias ao copiar os outros, tanto do seu grupo como de toda a população de máquinas em jogo. As máquinas foram atualizando os seus níveis de preconceito preferencialmente copiando aqueles que obtiveram melhores recompensas o mais rapidamente possível.
Nesse sentido, os investigadores concluíram que as habilidades cognitivas não são necessariamente um requisito para desenvolver preconceitos. Ainda existe um caminho a percorrer até os cientistas conseguirem desenvolver sistemas de IA que se mantenham neutros.
Em destaque
-
Multimédia
Osmo Action 6 é a primeira câmara de ação da DJI com abertura variável -
Site do dia
Como saber se tem cobertura de fibra, rede fixa e móvel na sua zona? -
App do dia
Quer recriar o charme da fotografia vintage? Experimente os filtros e efeitos da Vintify -
How to TEK
É mais fácil convidar amigos para um grupo do WhatsApp. Saiba como fazer
Comentários