Apesar de todo o seu potencial, ao cair nas mãos erradas, a inteligência artificial também pode ser perigosa. A utilização de IA para gerar imagens tem gerado polémica, mas as deepfakes vão mais além, incluindo também a criação de vozes falsas.

Os especialistas da Kaspersky explicam que o potencial de utilização de deepfakes de voz em esquemas de fraude é extremamente elevado. As ferramentas de IA que permitem criar este tipo de deepfakes ainda não estão numa fase avançada de desenvolvimento ou até de implementação, mas, como realça a empresa de cibersegurança, a tecnologia não está parada.

Recentemente, a OpenAI demonstrou um modelo de API de áudio que é capaz de gerar discursos de voz a partir de inputs de texto, afirmando-se como uma das opções que mais se aproxima do discurso humano real. É verdade que, na sua concepção atual, a solução da OpenAI não pode ser usada para criar deepfakes de voz, mas é um sinal do rápido desenvolvimento das tecnologias de geração de voz, afirmam os investigadores.

Nos últimos meses têm sido lançadas ferramentas que permitem gerar, através de IA, vozes humanas. Embora os resultados ainda não tenham chegado a um ponto em que sejam totalmente indistinguíveis da fala humana verdadeira, em alguns casos, podem ser suficientes para enganar quem os ouve.

Como o áudio Deepfake pode interferir nas eleições: Governos e cidadãos devem estar atentos à desinformação
Como o áudio Deepfake pode interferir nas eleições: Governos e cidadãos devem estar atentos à desinformação
Ver artigo

"Para já, é pouco provável que a tecnologia disponível seja suficientemente potente para criar uma voz que um ser humano não seja capaz de reconhecer como artificial. No entanto, é necessário estar ciente das possíveis ameaças e estar preparado para que a fraude avançada de deepfake se torne uma nova realidade num futuro próximo", afirma Dmitry Anikin, cientista de dados senior da Kaspersky, citado em comunicado.

Tendo em conta o atual estado da tecnologia de criação deste tipo de deepfakes, é importante prestar atenção ao que está a ser dito e a forma como é dito para evitar cair em esquemas fraudulentos ou para não ser enganado por campanhas de desinformação. O que está a ouvir parece ter má qualidade e existem ruídos estranhos? A voz do interlocutor soa robótica e pouco natural? É provável que esteja perante uma deepfake.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.