O Gemini, que veio substituir o Bard, ganhou ainda este mês a capacidade de gerar imagens. No entanto, as novas habilidades do chatbot de IA estão a dar que falar, e não pelos melhores motivos, levando a Google a suspender temporariamente a capacidade de gerar imagens de pessoas.

Esta semana, vários utilizadores do Gemini deram a conhecer através das redes sociais que o chatbot estava a gerar imagens historicamente ou factualmente incorretas, trocando raças e géneros numa variedade de contextos quando respondia aos pedidos dos utilizadores.

Entre elas incluem-se, por exemplo, imagens de figuras históricas brancas que surgem representadas por pessoas negras, assim como de outras raças. O mesmo se aplica a outro caso destacado pelos internautas de uma resposta a um pedido de geração de imagem com soldados alemães em 1943.

Clique nas imagens para ver com mais detalhe

Em vários casos descritos em redes sociais como a X (antigo Twitter), o Gemini recusava-se a apresentar imagens de pessoas brancas quando tal era pedido pelos utilizadores, como apontado, por exemplo, por Debarghya Das, que trabalhou anteriormente para a área de pesquisa da Google, que pediu ao chatbot para gerar imagens de pessoas australianas, britânicas e americanas. 

Em resposta, a Google veio a público para reconhecer que o chatbot estava a apresentar informação imprecisa quando gerava imagens históricas. “Estamos já a trabalhar para melhorar imediatamente estes tipos de representações”, afirma a empresa.

Segundo a Google, “o gerador de imagens com IA do Gemini cria um vasto leque de pessoas”. “Geralmente, isso é bom, porque pessoas em todo o mundo o usam”, afirma, acrescentando que, no entanto, o chatbot ficou aquém das expectativas.

A funcionalidade de criação de imagens de pessoas vai permanecer suspensa enquanto os problemas encontrados são resolvidos e, em breve, a empresa tenciona lançar uma versão melhorada.

Além de demonstrarem casos de representações incorretas, vários internautas manifestaram a sua opinião relativamente a esta situação, com diversas críticas à “diversidade forçada” que estava a ser apresentada pelo chatbot da Google. Elon Musk foi uma das figuras que se juntou ao coro de críticas.

Recorde-se que, anteriormente,vários estudos demonstraram que os algoritmos podem propagar influências tendenciosas em relação a critérios como raça, idade ou género. O mesmo enviesamento pode ser encontrado nas ferramentas que geram imagens com recurso a IA, que têm tendência para amplificar estereótipos encontrados dos dados de treino.