No início de 2020, a Polícia Metropolitana de Londres anunciou que ia começar a usar um sistema de reconhecimento facial em tempo real nas ruas da capital britânica. Desde que a tecnologia foi colocada a 27 de fevereiro na zona de Oxford Circus, uma das mais movimentadas da cidade, o sistema detetou oito correspondências aos dados dos registos criminais da polícia, no entanto, apenas uma se revelou correta.
De acordo com dados publicados pela Polícia Metropolitana de Londres, em apenas sete dias, o sistema de reconhecimento facial em tempo real registou as caras de 8.600 transeuntes. Dos sete falsos-positivos, cinco resultaram em interações com as autoridades, onde estas contactaram pessoalmente os indivíduos em questão para verificar se estavam na lista de procurados pela polícia.
A decisão da Polícia londrina está a ser fortemente contestada. A Big Brother Watch é uma das mais recentes a demonstrar o seu descontentamento. No seu Twitter, a organização sem fins lucrativos britânica indica que o facto de 86% dos alertas detetados pelo sistema serem falsos deita por terra os argumentos da polícia londrina. “Isto é um desastre a nível de direitos humanos, uma violação das mais básicas liberdades e uma vergonha para a capital”, declara numa publicação.
Recorde-se que, como argumento à utilização da tecnologia, as autoridades londrinas afirmaram que esta os ajudaria na luta contra o crime e na “proteção dos mais vulneráveis”. A Polícia indicou também que a presença das câmaras seria claramente assinalada nos locais onde fossem colocadas. As imagens recolhidas pelo sistema que não identificassem qualquer tipo de presença criminosa seriam posteriormente eliminadas, sendo que as autoridades só atuariam caso fosse necessário.
A Liberty, uma organização humanitária britânica, afirma que a Polícia Metropolitana de Londres ignorou as conclusões de um relatório acerca do uso da tecnologia, as quais indicavam que a sua implementação era uma violação dos direitos humanos. Além disso, investigações anteriores demonstraram que o sistema utilizado pela polícia londrina apresentava falhas. Um estudo da Universidade de Essex publicado em 2019 revelou que a tecnologia apresentava uma taxa de exatidão de apenas 19%. Ainda em 2018, o sistema levou a que a polícia em Gales identificasse erradamente cerca de 2.300 pessoas inocentes.
A utilização de sistemas de reconhecimento facial pela polícia também está a levantar preocupações nos Estados Unidos. Ao longo dos últimos dois anos, a Clearview AI vendeu às autoridades norte-americanas um software que recorre a uma base de dados com mais de 3 mil milhões de fotos obtidas em redes sociais e plataformas digitais. Recentemente, uma fuga de informação expôs a lista de clientes do sistema utilizado por 600 departamentos da polícia nos Estados Unidos.
Em Portugal as preocupações estão sobretudo relacionadas com as propostas de videovigilância com inteligência artificial (IA) da PSP, com a D3 a avançar que é urgente lançar o debate acerca da utilização de sistemas de videovigilância com IA. Ainda antes, a Comissão Nacional de Proteção de Dados chumbou os pedidos de videovigilância com IA da PSP devido ao "risco elevado para os direitos fundamentais à proteção dos dados e ao respeito pela vida privada".
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários