O Twitter e o Zoom estão a enfrentar uma onda de contestação nas redes sociais devido à utilização de algoritmos tendenciosos. Nos últimos dias, vários utilizadores revelaram que a rede social e a plataforma de videoconferências têm problemas quando se trata de reconhecer os rostos de pessoas negras.

Tudo começou quando Colin Madland, um estudante de doutoramento, publicou um tweet acerca dos problemas que estava a ter no Zoom. Ao fazer uma videoconferência, o algoritmo usado pela plataforma insista em não reconhecer a cara de um dos seus professores que estava a usar um pano de fundo virtual.

Em resposta ao problema encontrado, um porta-voz da Zoom indicou à imprensa internacional que a empresa está já a investigar o sucedido, tendo contactado o utilizador diretamente. “Estamos empenhados em disponibilizar uma plataforma que seja inclusiva”, afirmou o representante.

No entanto, a questão tornou-se ainda mais problemática quando Colin Madland notou que o próprio algoritmo usado pelo Twitter também dava a preferência rostos brancos.

Anteriormente, a rede social tinha explicado que diminui automaticamente o tamanho do conteúdo para evitar que ocupe demasiado espaço no feed dos utilizadores, permitindo também que várias imagens sejam demonstradas na mesma publicação. A empresa liderada por Jack Dorsey recorre a algoritmos para centrar a atenção nas partes mais importantes da imagem, como rostos ou texto.

Depois da experiência, Colin Madland, Tony Arcieri, um engenheiro de infraestruturas e criptografia, decidiram colocar a rede social à prova. Ao publicar duas imagens com os rostos de Mitch McConnell, senador republicano do Estado do Kentuky, e de Barack Obama, o anterior presidente-norte americano, o algoritmo acabava sempre por escolher a cara de McConnell. O único caso em que o mesmo não sucedeu foi quando as cores estavam invertidas.

Vários utilizadores decidiram repetir a experiencia e obtiveram os mesmos resultados: seja em imagens de pessoas ou até de desenhos animados, numa comparação, entre Lenny e Carl dos Simpsons. Os rostos de pessoas negras nunca surgiam na pré-visualização das imagens.

A rede social reconheceu a situação e Liz Kelley, colaboradora do Twitter, indicou que a equipa a cargo do algoritmo fez vários testes para verificar se propagava influências tendenciosas em relação a critérios de raça ou de género. “É evidente que ainda temos muito mais análises para fazer”, afirma a colaboradora, acrescentando que a rede social vai disponibilizar publicamente o código do algoritmo para que possa ser analisado por outros developers.

Já Parag Agrawal, Chief Technology Officer do Twitter, sublinhou que esta é uma questão muito importante, afirmando que o algoritmo precisa de ser constantemente melhorado e indicando ainda outro estudo independente feito por Vinay Prabhu, cientista de Machine Learning na UnifyID.

Os problemas no Twitter e no Zoom voltam a trazer a público a questão da discriminação nos sistemas de inteligência artificial. Anteriormente, um estudo do MIT revelou que a tecnologia de reconhecimento facial da Amazon dava muito mais erros ao tentar identificar mulheres e pessoas negras. Recorde-se também o exemplo do chatbot da Microsoft, o qual a Internet conseguiu ensinar a ser racista.

IBM deixa a produção de sistemas de reconhecimento facial e alerta para violações dos direitos humanos
IBM deixa a produção de sistemas de reconhecimento facial e alerta para violações dos direitos humanos
Ver artigo

Ainda neste ano, a IBM concordou em suspender a venda do seu software de reconhecimento facial a entidades policiais depois de várias campanhas por parte de investigadores de IA e grupos de direitos civis alertarem para o facto de que o sistema tinha muito mais hipóteses de identificar erradamente pessoas com tons de pele mais escuros.

Fora do espetro do reconhecimento facial, um estudo da Stanford University deu também a conhecer que os sistemas de reconhecimento de voz da Amazon, Apple, Google, IBM e Microsoft não estão preparados para identificar corretamente o que indivíduos de diferentes raças dizem.

Os investigadores concluiram que o preconceito racial existente nos sistemas é fruto da forma como são treinados. De acordo com John Rickford, um dos autores do estudo, as cinco gigantes tecnológicas estão todas a “cometer o mesmo tipo de erro”. “Seria expectável que todos os grupos étnicos estivessem bem representados por estas empresas, mas não estão”, afirmou o investigador.