A utilização de sistemas de reconhecimento facial tem vindo a levantar preocupações em todo o mundo e são vários os especialistas e grupos de ativistas dos diretos humanos que afirmam que a tecnologia viola a privacidade dos cidadãos. A IBM anunciou a sua saída do mercado das tecnologias de reconhecimento facial por receio de que os seus sistemas sejam utilizados para promover discriminação racial e injustiça.

Numa carta enviada ao Congresso norte-americano, Arvind Krishna, CEO da IBM, afirma que a empresa se “opõe firmemente e não tolera” a utilização de qualquer tipo de tecnologia de reconhecimento facial para propósitos de vigilância em massa, de criação de perfis baseados em raças, de violação das liberdades e direitos humanos ou para objetivos que não se enquadrem nos seus princípios.

Tendo em conta a brutalidade policial e discriminação racial registada nos Estados Unidos, o responsável da empresa sublinha que é necessário um diálogo a nível nacional para debater a utilização da tecnologia pelas autoridades.

“A inteligência artificial é uma ferramenta poderosa que pode ajudar as autoridades a manter a segurança da população. Mas quem produz e usa sistemas de IA tem a responsabilidade de garantir que a tecnologia é imparcial, em especial no que toca à utilização pelas autoridades, e que as imprecisões são reportadas e examinadas”, explica Arvind Krishna.

Sistema de reconhecimento facial utiliza fotos retiradas da internet sem permissão
Sistema de reconhecimento facial utiliza fotos retiradas da internet sem permissão
Ver artigo

Em 2019, a IBM disponibilizou uma base de dados chamada Diversity in Faces, que consiste em um milhão de imagens anotadas, como contributo à criação de sistemas de reconhecimento facial mais imparciais e precisos. No entanto, as fotos utilizadas pela empresa foram retiradas do website Flickr sem permissão dos autores e foram codificadas para categorizar a aparência dos fotografados.

Além da China, Rússia ou até do Reino Unido, nos Estados Unidos, a utilização de sistemas de reconhecimento facial pela polícia tem gerado controvérsia. Ao longo dos últimos dois anos, a Clearview AI vendeu às autoridades norte-americanas um software que recorre a uma base de dados com mais de 3 mil milhões de fotos obtidas em redes sociais e plataformas digitais. Recentemente, uma fuga de informação expôs a lista de clientes do sistema utilizado por 600 departamentos da polícia nos Estados Unidos.

Associação D3 alerta para riscos das propostas de videovigilância com IA da PSP
Associação D3 alerta para riscos das propostas de videovigilância com IA da PSP
Ver artigo

Em Portugal também existem preocupações relacionadas com as propostas de videovigilância com IA da PSP, com a D3 a avançar que é urgente lançar o debate acerca da utilização de sistemas de videovigilância com IA. Ainda antes, a Comissão Nacional de Proteção de Dados chumbou os pedidos de videovigilância com IA da PSP devido ao "risco elevado para os direitos fundamentais à proteção dos dados e ao respeito pela vida privada".

Newsletter

Receba o melhor do SAPO Tek. Diariamente. No seu email.

Notificações

Subscreva as notificações SAPO Tek e receba a informações de tecnologia.

Na sua rede favorita

Siga-nos na sua rede favorita.