Apesar do potencial das soluções de inteligência artificial generativa, a tecnologia também traz novos vetores de ataque. De acordo com os especialistas da SlashNext, hackers estão a usar ferramentas de IA generativa para levar a cabo ataques de comprometimento de emails empresariais (Business Email Compromise, ou BEC).

A empresa de cibersegurança explica que as ferramentas dão aos cibercriminosos a possibilidade de automatizar a criação de emails falsos convincentes e personalizados de acordo com os alvos que pretendem atacar.

Os especialistas têm verificado que este é um tema que está a ser discutido em fóruns de hacking com cibercriminosos a mostrarem, por exemplo, como soluções semelhantes ao ChatGPT podem ser utilizadas para “melhorar” emails fraudulentos.

Clique nas imagens para ver com mais detalhe 

Nestes fóruns, os hackers discutem também formas de contornar as limitações do ChatGPT e de manipular o chatbot para divulgar informação sensível, produzir conteúdo impróprio ou para executar código malicioso.

Hackers usam páginas de Facebook falsas sobre ChatGPT e Bard para distribuir malware e roubar dados
Hackers usam páginas de Facebook falsas sobre ChatGPT e Bard para distribuir malware e roubar dados
Ver artigo

A criação de soluções semelhantes ao ChatGPT, mas maliciosas, é outro dos tópicos de discussão identificados pela SlashNext, com alguns dos cibercriminosos a publicitarem as suas criações a outros membros dos fóruns.

Uma dessas ferramentas toma o nome WormGPT, que se afirma como uma alternativa aos modelos GPT para hackers blackhat, concebida especificamente para atividades maliciosas. Os testes realizados pela empresa mostram as capacidades do WormGPT na criação de emails falsos para ataques BEC.

Segundo os especialistas, este módulo de IA, que se baseia no modelo de linguagem GPTJ, foi alegadamente treinado com um vasto conjunto de dados, sobretudo, de fontes relacionadas com malware. No entanto, certos datasets utilizados neste processo permanecem confidenciais.