![IBM deixa a produção de sistemas de reconhecimento facial e alerta para violações dos direitos humanos](/assets/img/blank.png)
A utilização de sistemas de reconhecimento facial tem vindo a levantar preocupações em todo o mundo e são vários os especialistas e grupos de ativistas dos diretos humanos que afirmam que a tecnologia viola a privacidade dos cidadãos. A IBM anunciou a sua saída do mercado das tecnologias de reconhecimento facial por receio de que os seus sistemas sejam utilizados para promover discriminação racial e injustiça.
Numa carta enviada ao Congresso norte-americano, Arvind Krishna, CEO da IBM, afirma que a empresa se “opõe firmemente e não tolera” a utilização de qualquer tipo de tecnologia de reconhecimento facial para propósitos de vigilância em massa, de criação de perfis baseados em raças, de violação das liberdades e direitos humanos ou para objetivos que não se enquadrem nos seus princípios.
Tendo em conta a brutalidade policial e discriminação racial registada nos Estados Unidos, o responsável da empresa sublinha que é necessário um diálogo a nível nacional para debater a utilização da tecnologia pelas autoridades.
“A inteligência artificial é uma ferramenta poderosa que pode ajudar as autoridades a manter a segurança da população. Mas quem produz e usa sistemas de IA tem a responsabilidade de garantir que a tecnologia é imparcial, em especial no que toca à utilização pelas autoridades, e que as imprecisões são reportadas e examinadas”, explica Arvind Krishna.
Em 2019, a IBM disponibilizou uma base de dados chamada Diversity in Faces, que consiste em um milhão de imagens anotadas, como contributo à criação de sistemas de reconhecimento facial mais imparciais e precisos. No entanto, as fotos utilizadas pela empresa foram retiradas do website Flickr sem permissão dos autores e foram codificadas para categorizar a aparência dos fotografados.
Além da China, Rússia ou até do Reino Unido, nos Estados Unidos, a utilização de sistemas de reconhecimento facial pela polícia tem gerado controvérsia. Ao longo dos últimos dois anos, a Clearview AI vendeu às autoridades norte-americanas um software que recorre a uma base de dados com mais de 3 mil milhões de fotos obtidas em redes sociais e plataformas digitais. Recentemente, uma fuga de informação expôs a lista de clientes do sistema utilizado por 600 departamentos da polícia nos Estados Unidos.
Em Portugal também existem preocupações relacionadas com as propostas de videovigilância com IA da PSP, com a D3 a avançar que é urgente lançar o debate acerca da utilização de sistemas de videovigilância com IA. Ainda antes, a Comissão Nacional de Proteção de Dados chumbou os pedidos de videovigilância com IA da PSP devido ao "risco elevado para os direitos fundamentais à proteção dos dados e ao respeito pela vida privada".
Pergunta do Dia
Em destaque
-
Multimédia
Gemini 2: A pequena grande missão que abriu portas para a conquista da Lua -
Site do dia
28 dez 2024 09:48 Um esquilo entalado e uma águia perseguida: estas são as fotos mais cómicas de animais -
App do dia
O Duolingo do fitness chegou. Chama-se Impakt e quer mudar os seus treinos para melhor -
How to TEK
Google Maps pode ser transformado numa “máquina do tempo”. Veja como
Comentários