Os modelos de inteligência artificial são cada vez mais eficientes e exigem cada vez menos aos seus utilizadores. Os fatores democratizam a tecnologia, mas a velocidade com que chega a mãos bem intencionadas é semelhante àquela com que é utilizada em esquemas fraudulentos.
Segundo o The Washington Post, são já milhares as vítimas de burlas que recorrem a modelos de IA especializados em imitar vozes humanas. Uma vez que algumas destas ferramentas precisam apenas de trechos muito curtos de conversa para conseguirem copiar uma voz de forma convincente e em diferente tons emocionais, torna-se simples montar um esquema de burla. A isto junta-se o facto de estes ataques estarem a ser conduzidos a um grupo da população que tem pouca aptidão para distinguir a legitimidade das interações por via eletrónica: os idosos.
Em conversa com o Post, um grupo de vítimas relata ter-se sentido aterrorizado e explica que acabou por ceder aos pedidos feitos pelos burlões após identificar vozes familiares ao telefone. Nestes casos, os perpetradores optam por replicar vozes conhecidas em tons dramáticos, como se estivessem em situações de vida ou morte.
Durante estas chamadas, a sua segurança está quase sempre dependente da transferência de grandes quantias. Um casal chegou mesmo a transferir 15 mil dólares para um atacante que se fazia passar pelo seu filho. Com a ajuda da IA, este comunicara que estava em apuros, depois de ter atropelado mortalmente um diplomata norte-americano. O dinheiro que pediu era necessário para pagar os custos legais do processo que estava a ser movido contra ele.
Uma vez que estes esquemas podem ser postos em prática desde qualquer ponto do mundo, impedi-los é, ao dia de hoje, praticamente impossível. É difícil identificar os burlões, localizá-los, reaver as quantias roubadas e até decidir que entidades têm a responsabilidade de agir. Em muitos casos, as agências competentes não estão sequer equipadas para lidar com a complexidade técnica do problema.
A Federal Trade Commission defende que a melhor proteção é a educação e sublinha a importância de se alertar para os riscos associados aos emuladores de voz de IA.
Estes modelos têm sido utilizados para melhorar as tecnologias de conversão de texto em voz, bem como a edição de diálogos gravados ou para recuperar vozes icónicas do cinema, como a de Darth Vader. Mas o poder destas ferramentas pode ser altamente nocivo.
Já no início deste ano, um grupo de utilizadores do fórum 4chan, recorreu a software semelhante para emular vozes de artistas conhecidos, fazendo com que estas versões artificiais proferissem afirmações racistas, violentas ou xenófobas.
Os tribunais ainda não determinaram se as empresas podem ser responsabilizadas pelos danos causados através da utilização fraudulenta destas tecnologias, mas situações como esta vão certamente aumentar a pressão sob as entidades reguladoras para que criem um enquadramento legal para estes produtos.
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Wayther: uma nova app de previsões meteorológicas detalhadas para otimizar viagens -
Site do dia
Tetr.io é uma versão competitiva de Tetris e os adversários não dão tréguas -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários