Porcha Woodruff é uma mulher norte-americana de 32 anos que foi indevidamente detida por conta de uma falha no sistema de reconhecimento facial da polícia de Detroit. Woodruff estava grávida de oito meses, na altura da detenção.

A mulher foi obrigada a permanecer na esquadra durante 11 horas e o seu iPhone foi apreendido para efeitos de investigação. Nada que a incriminasse foi encontrado, mas esta não é a primeira detenção indevida que acontece por conta de problemas no software de reconhecimento facial das autoridades norte-americanas.

O erro é crasso, uma vez que, apesar de ter uma barriga bastante saliente à altura da detenção, as imagens utilizadas para a justificar não mostravam, sequer, uma mulher grávida.

O incidente aconteceu depois de um homem ter reportado um assalto à polícia de Detroit, que prontamente cruzou imagens de videovigilância com uma base de fotografias de pessoas que haviam sido detidas no passado. O rosto de Woodruff, registado em 2015 devido a uma detenção não relacionada com o caso, foi imediatamente identificado. Depois disto, a vítima afirmou que se tratava da pessoa que o tinha assaltado, levando, consequentemente, à sua detenção.

Artistas boicotam salas de espectáculo onde se usam de tecnologias de reconhecimento facial
Artistas boicotam salas de espectáculo onde se usam de tecnologias de reconhecimento facial
Ver artigo

Woodruff foi considerada culpada em tribunal, mas libertada com a condição de pagar uma multa de até 100 mil dólares, caso cometesse novo crime ou falhasse uma apresentação periódica na esquadra local. Um mês depois, as acusações caíram.

Em resposta, a norte-americana decidiu processar a polícia de Detroit por detenção indevida. O responsável máximo pela autoridade, James E. White, concorda que o caso é alarmante e que deve ser tratado com seriedade.

Escreve o The New York Times que este é o sexto incidente do género, a nível nacional, e o terceiro em Detroit. O detalhe inquietante é que todos eles envolveram pessoas negras.

O fenómeno destaca as fraquezas deste sistema que, segundo os estudos, é mais propenso a gerar falsos positivos entre rostos negros. Em 2020, um trabalho da Universidade de Harvard concluiu que a tecnologia demonstrava uma tendência para gerar resultados discriminatórios, uma vez que o software tem problemas em distinguir rostos negros.

Em 2022, um relatório elaborado pela Georgetown Law concluiu que apesar de ser amplamente usada pelas autoridades, há já 20 anos, a tecnologia de reconhecimento facial continua a demonstrar que é propensa a erros de identificação, pelo que a sua taxa de fiabilidade ainda não se consolidou nos valores em que devia.

Os erros são provocados pela forma como estes modelos são treinados. No lote de dados que estudam, encontram-se algoritmos instáveis, imagens de baixa qualidade e informações não representativas das características anatómicas de grupos étnicos minoritários.

O portal Ars Technica, aponta que estes problemas são exponenciados por um fenómeno chamado "automation bias", que é a tendência humana para acreditar em resultados gerados por máquinas, mesmo quando as provas observáveis indicam o contrário.

Algumas polícias norte-americanas decidiram eliminar a ferramenta das suas metodologias, mas uma força tácita, organizada entre o lobby e um aumento da criminalidade, está a fazer com que o reconhecimento facial volte a ser considerado como solução para combater o crime.