A tecnologia de reconhecimento facial da Amazon tem vindo a ser alvo de uma crescente oposição nos EUA e agora pode haver mais 28 argumentos contra o Rekognition e o seu fornecimento a agências de segurança pública norte-americanas.

O sistema da Amazon identificou erradamente 28 membros do Congresso como sendo pessoas que foram acusadas de um crime, informou a União das Liberdades Civis Norte-Americana (ACLU, na sigla em inglês).

Amazon vende tecnologia de reconhecimento facial à polícia e gera protestos
Amazon vende tecnologia de reconhecimento facial à polícia e gera protestos
Ver artigo

Os erros surgiram na sequência de teste no qual o grupo de liberdades civis usou o software facial da Amazon para comparar as fotos de todos os membros da Câmara e do Senado dos EUA com um banco de dados de 25 mil fotos de detidos.

"Acho que esses resultados enfatizam que existem aplicações de vigilância facial que não são seguras”, disse Jacob Snow, advogado da Fundação ACLU, alertando que esta tecnologia “será usada  para impulsionar uma vigilância discriminatória e o policiamento que tem como alvo comunidades de cor, imigrantes e ativistas”.

Das 28 pessoas incorretamente identificadas pelo teste da ACLU, 40% (11) eram afro-americanos, embora estes representem apenas 20% no Congresso.

"O teste da ACLU demonstra sem sombra de dúvida o que muitos de nós já sabemos - que a ferramenta de reconhecimento facial da Amazon é discriminatória e, portanto, perigosa para a democracia", acusou Malkia Cyril, diretora executiva do Center for Media Justice.

A tecnologia foi anunciada pela gigante tecnológica em 2016 e, com base em inteligência artificial, o Rekognition pode identificar, seguir e analisar pessoas em tempo real e reconhecer até 100 pessoas em uma única imagem.