A ferramenta chama-se Face Depixelizer  e foi desenvolvida para usar a inteligência artificial (IA) na reconstrução de imagens muito pixelizadas ou pouco nítidas. Mas vários utilizadores mostram que os resultados revelam a tendência para que a fotografia final revele rostos masculinos brancos, já que os algoritmos foram treinados sobretudo com bases de dados com esse tipo de imagens.

O programador que desenvolveu a  Face Depixelizer  partilhou no Twitter a ferramenta e vários utilizadores começaram a aplicar o código em imagens. A utilização de uma fotografia de Barack Obama, o ex-presidente dos Estados Unidos, foi usada para mostrar que o resultado é evidentemente tendencioso.

O código está disponível no GitHub e a comunidade de desenvolvimento ligada à Inteligência Artificial tirou partido da possibilidade para testar com várias imagens, revelando tendências de enviesamento racial que já haviam causado problemas noutras ocasiões. O contexto atual no movimento "Black Lives Matter" nos Estados Unidos, depois da morte de George Floyd às mãos da polícia em Minneapolis, fez escalar a questão.

Várias experiências mostram que a Face Depixelizer não é particularmente precisa no processamento de imagens de homens negros, que consistentemente são transformados para parecer brancos.

A utilização de bases de imagens de homens brancos para treinar a ferramenta poderá estar na base destes resultados. Os algoritmos são treinados com recurso a grande bases de dados e é a partir dai que identificam padrões que depois são aplicados automaticamente no funcionamento futuro.

Este é mais um dos exemplos da forma como a aplicação da inteligência artificial pode ter resultados distorcidos, e várias experiências tiveram já consequências desastrosas, como a Tay, um bot da Microsoft que em 2016 se tornou racista ao fim de algumas horas online.

Ainda este mês a IBM, Amazon e Microsoft concordaram em suspender a venda do seu software de reconhecimento facial a entidades policiais depois de anos de campanhas de alerta de investigadores de IA e grupos de direitos civis nesse sentido, mostrando que o software tem muito mais hipóteses de identificar erradamente mulheres e pessoas com tons de pele mais escuros.