A tecnologia de reconhecimento facial tem evoluído e alguns produtos comerciais já reconhecem o sexo da pessoa através da fotografia. O cruzamento da informação através de sistemas de inteligência artificial é cada vez mais comum e os alertas para erros estão a aumentar. Um novo estudo mostra que a percentagem de eficácia ronda os 99% quando a foto é de um homem branco, mas desce drasticamente quanto mais escuro for o tom de pele.

Joy Buolamwini, uma investigadora da MIT Media Lab, construiu uma base de dados com 1.270 imagens de rostos, utilizando caras de políticos selecionados com base no ranking dos seus países por paridade do género, ou seja, com um grande número de mulheres em cargos públicos. A investigadora submeteu as imagens aos sistemas de reconhecimento facial da Microsoft, IBM e a Megvii, uma solução de uma empresa chinesa e os resultados mostraram incoerências na identificação do género pela tecnologia de inteligência artificial.

Óculos de reconhecimento facial são a nova "arma" da polícia chinesa
Óculos de reconhecimento facial são a nova "arma" da polícia chinesa
Ver artigo

Segundo o relatório de Joy Buolamwini, o erro foi de menos de 1% nos homens de pele clara, 7% em mulheres de tons claros, 12% em homens de pele escura e até 35% quando são mulheres negras. De um modo geral, a identificação dos homens é mais eficaz que a das mulheres e os erros aumentam consoante os tons de pele ficam mais escuros.

tek reconhecimento facial tabela

Já em 2015, a aplicação Photos da Google, havia identificado erradamente pessoas negras como gorilas. Na promessa de corrigir o sistema, foi apenas retirada a palavra “gorilas” da indexação das fotos, o que demonstra a dificuldade de ajuste dos algoritmos de identificação.

O tema é mais preocupante quando as autoridades recorrem cada vez mais a sistemas de reconhecimento de imagem na investigação e segurança de espaços públicos. A polícia nos Estados Unidos, por exemplo, utiliza soluções de reconhecimento facial desde o início de 2000 nas suas investigações, com falhas que chegam aos 15%, e várias organizações têm defendido que esta falta de rigor eleva o risco de pessoas inocentes serem considerados suspeitas de crimes.

Joy Buolamwini alerta para a necessidade das fabricantes de tecnologia aumentarem o rigor e reduzirem a margem de erro dos algoritmos, nos diferentes grupos demográficos, introduzindo maior transparência no sistema de identificação e capacidade de verificação de resultados.