
No início de agosto a Apple deu a conhecer os seus planos de implementação de uma tecnologia que permite detetar imagens de abuso sexual de crianças nas mensagens dos iPhones. A medida teve apoiantes, mas também levantou múltiplas críticas e preocupações pela eventual utilização indevida da tecnologia e até uma coligação composta por mais de 90 grupos de defesa de direitos publicaram uma carta a apelar à Apple para que abandonasse os seus planos.
Perante as críticas e preocupações a Apple decidiu adiar a implementação do sistema de modo a poder melhorá-lo. Inicialmente, a gigante de Cupertino tencionava implementar a tecnologia na próxima atualização dos seus sistemas operativos, cujo lançamento público está previsto para este Outono. Para já, ainda não há uma nova data de implementação do sistema.
“Com base no feedback dos nossos clientes, grupos ativistas, investigadores e outras entidades, decidimos levar mais algum tempo ao longo dos próximos meses para recolher opiniões e fazer melhorias antes de lançarmos estas funcionalidades extremamente importantes de proteção de crianças”, afirma a empresa em comunicado à imprensa internacional.
Recorde-se que o sistema, que a Apple batizou de NeuralHash, reconhece as mensagens nocivas, mas sem desencriptar as mesmas. Caso haja uma correspondência, a imagem em questão é analisada por uma pessoa, que pode depois notificar as autoridades, caso seja necessário.
A tecnologia é capaz de cruzar as imagens detetadas com materiais que fazem parte de uma lista fornecida pelo norte-americano National Center for Missing and Exploited Children (NCMEC), assim como outras organizações de proteção de crianças, antes das mesmas entrarem na iCloud.
A tecnologia conta recorre ainda a Inteligência Artificial, através da Siri, para gerar avisos quando um utilizador procura por conteúdo relacionado com abuso sexual de crianças, assim como para avisar os mais novos caso estejam prestes a deparar-se com imagens sexualmente explícitas enviadas através do iMessage.

O sistema foi amplamente criticado, existindo preocupações em torno da privacidade dos utilizadores e em relação à possibilidade de poder ser usado por governos autoritários para censurar e reprimir os seus cidadãos. Além disso, vários especialistas acreditam que a tecnologia chega a violar os protocolos de encriptação ponta-a-ponta.
À medida que a Apple se tentava defender das críticas, alegando ter sido mal interpretada, uma coligação internacional composta por mais de 90 organizações civis e grupos de defensores de direitos, publicaram uma carta aberta à gigante tecnológica.
“Apesar do sistema ser intencionado para proteger as crianças e reduzir a propagação de conteúdo de abuso sexual de menores, estamos preocupados com a possibilidade de ser usado para censurar o discurso protegido, ameaçar a privacidade e segurança das pessoas em todo o mundo, e tendo consequências desastrosas para muitas crianças”, pode ler-se na carta.
Os ativistas pediram à empresa liderada por Tim Cook que abandonasse os seus planos e que reafirmasse o seu compromisso na proteção dos dados dos utilizadores com encriptação ponta-a-ponta. Foi também pedido à Apple que consultasse com maior regularidade os grupos dedicados a causas civis e a comunidades vulneráveis que possam sofrer consequências negativas quando existem mudanças nos seus produtos e serviços.
Pergunta do Dia
Em destaque
-
Multimédia
Mistério resolvido: pequenos jatos ajudam a explicar o “famoso” vento solar -
Site do dia
Nokia Design Archive é uma viagem no tempo aos primeiros telemóveis da fabricante finlandesa -
App do dia
Diga adeus ao caos das receitas guardadas no Instagram com a app Recipe Reel -
How to TEK
A Google enviou um alerta de falta de espaço? Apague primeiro o “lixo” antes de pensar num upgrade
Comentários