
O estudo mostrou que os preconceitos entre robots com inteligência artificial podem ser desenvolvidos sem habilidades cognitivas, mas sim aprendendo entre si. Os investigadores referem que “grupos de máquinas autónomas podem demonstrar preconceitos simplesmente por identificarem, copiarem e aprenderem os comportamentos de uns dos outros”.
Este comportamento difere de outras experiências cujos algoritmos de IA demonstraram racismo e sexismo, mas baseados em aprendizagens sobre registos públicos e informações alimentadas pelos investigadores. É o caso do bot Tay, desenvolvido pela Microsoft.
Na nova experiência, os cientistas organizaram um jogo onde atribuíram aos robots a decisão de doar (e receber) a um elemento do seu grupo ou a de outra equipa, baseado na sua reputação individual, assim como a sua própria estratégia de doação, tendo em conta o nível de preconceito em relação aos elementos exteriores.
Como relata a experiência, à medida que o jogo se foi desenvolvendo, e depois do supercomputador de IA ter executado milhares de simulações, cada robot começou a aprender novas estratégias ao copiar os outros, tanto do seu grupo como de toda a população de máquinas em jogo. As máquinas foram atualizando os seus níveis de preconceito preferencialmente copiando aqueles que obtiveram melhores recompensas o mais rapidamente possível.
Nesse sentido, os investigadores concluíram que as habilidades cognitivas não são necessariamente um requisito para desenvolver preconceitos. Ainda existe um caminho a percorrer até os cientistas conseguirem desenvolver sistemas de IA que se mantenham neutros.
Pergunta do Dia
Em destaque
-
Multimédia
Jogo de estratégia tática Star Wars: Zero Company inspira-se na série XCOM -
App do dia
ColorSlurp: Não encontra a cor certa? Esta app dá uma ajuda nos projetos criativos -
Site do dia
Reve Image é o novo motor de geração de imagens de IA super realistas -
How to TEK
Como eliminar as passwords guardadas no Google Chrome, Edge e Firefox?
Comentários