Por José María Blanco Navarro (*)

O ChatGPT, muito popular nos últimos meses, é apenas um dos desenvolvimentos na inteligência generativa que tem sido disponibilizado ao público em geral. Além de suscitar muita curiosidade, gerou muito debate. Trata-se de uma forma de aprendizagem automática, baseada em modelos linguísticos, capaz de gerar novos conteúdos em qualquer formato (texto, imagem, vídeo, voz, código).

Anteriormente, aplicações como Dall-e, Midjourney ou Stable Diffusion surpreenderam com a sua capacidade de produzir imagens de alta qualidade a partir de texto. Há algumas semanas, a Microsoft apresentou a sua proposta de Bing com IA, cujo potencial é muito maior do que o do ChatGPT. Espera-se que a solução Bard do Google seja lançada em breve. Entretanto, há uma proliferação de propostas que não se limitam a oferecer resultados textuais baseados em modelos linguísticos, mas abrangem a geração e combinação de qualquer tipo de conteúdo.

Não há dúvida de que a tecnologia apoia o progresso. Enormes avanços tecnológicos melhoraram aspetos tão fundamentais para os seres humanos como a comunicação, a educação e a saúde. Mas também sabemos, especialmente no campo da segurança, que cada oportunidade gera novas ameaças.

Tendo em conta o rápido desenvolvimento destas tendências, na Prosegur Research, centro Insight&trends da Prosegur, analisámos as implicações do ChatGPT numa perspetiva de segurança, e identificámos os principais riscos e oportunidades que resultam da sua aplicação em diferentes áreas.

Os dez principais riscos de segurança decorrentes do ChatGPT, segundo a análise da Prosegur Research, são os seguintes:

  1. Polarização social: a IA generativa, dada a sua capacidade de produzir conteúdo multimédia, pode ser utilizada para divulgar mensagens de ódio ou discriminação, bem como mensagens de natureza extremista.
  2. Phishing: geração automatizada de e-mails com uma aparência “real”, elaborados com o objetivo de enganar os utilizadores a fim de aceder aos seus dados, a informações confidenciais, ou a sistemas informáticos. Há que ter em conta que a IA generativa redige com uma grande qualidade, o que invalidar as suspeitas que, por exemplo, um phishing de baixa qualidade origina.
  3. Desinformação: através da criação de notícias falsas, são feitas tentativas para influenciar a opinião pública, prejudicar a coesão social ou afetar os processos eleitorais. A desinformação é uma questão clara que afeta a segurança pública, prejudicando a coesão social e os princípios democráticos.
  4. Doxing: a desinformação também poderá vir a afetar empresas e organizações, com a disseminação de burlas, informação tendenciosa, criação de perfis profissionais falsos, ou a manipulação de documentos que prejudiquem a credibilidade das organizações. O seu objetivo pode variar desde uma simples paródia até ao ataque à reputação ou à influência dos mercados.
  5. Fuga de informação e roubo de dados: empresas como a Amazon e Google alertaram os seus colaboradores para os riscos de partilhar informações sobre as empresas no ChatGPT e aplicações semelhantes, já que poderiam vir a ser divulgadas mais tarde nas respostas fornecidas aos utilizadores.
  6. Fraudes e esquemas: são tipologias criminais que têm vindo a crescer nos últimos anos. As fraudes tradicionais, que existem em todos os setores económicos, são reforçadas pela utilização da Internet, das redes sociais e das novas tecnologias. A IA generativa pode ajudar a realizar fraudes com muito maior qualidade, bem como a definir alvos.
  7. Criação de chatbots maliciosos com intenção criminosa: podem interagir com indivíduos para obter informação sensível ou fins económicos ilícitos.
  8. Roubo de identidade: a utilização das chamadas "deep fakes” juntamente com a capacidade da IA de gerar texto, imagens, vídeos e até mesmo simular voz, e a criação de avatares que integram todos estes elementos, facilitam o aumento da credibilidade das identidades falsas.
  9. Criação de código malicioso, como vírus, trojans (cavalos de troia), malware, ransomware, spyware: o objetivo é cometer crimes cibernéticos de naturezas diferentes.
  10. Lutas de poder geopolítico e geoeconómico: num contexto de poderes difusos e fragmentados, a liderança já não se mede apenas pela capacidade económica, diplomática ou militar. A geopolítica e a geoeconomia apresentam novos riscos, mas também oportunidades para os estados e empresas que tenham uma grande capacidade de antecipação e prevenção. Os dados, juntamente com as tecnologias, estão no centro da configuração do poder, criando uma assimetria entre aqueles que o têm e aqueles que não o têm.

Contudo, a tecnologia, como um grande fator de mudança nas nossas sociedades, normalmente não surge orientada para o uso malicioso. Por esta razão, na Prosegur Research também quisemos analisar as oportunidades que o ChatGPT pode gerar no domínio da segurança, entre as quais se destacam as seguintes:

  1. Automatização de tarefas rotineiras em funções de segurança: poderia potenciar mais as capacidades humanas e facilitar o bem-estar dos colaboradores, eliminando tarefas repetitivas e monótonas.
  2. Criação de chatbots apelativos: com um perfil mais amigável e mais humano, melhorando assim a interação com os clientes e outros utilizadores.
  3. Acesso a vastas quantidades de informação relevante para a segurança, de forma estruturada através da utilização de linguagem natural: neste caso, as capacidades de inteligência de fonte aberta (OSINT) são reforçadas, estando sempre conscientes dos critérios de avaliação relativamente à credibilidade das fontes e da informação.
  4. Em análises de risco: pode ajudar na deteção e na catalogação de riscos para as organizações.
  5. Reconhecimento de padrões, dentro do vasto conjunto de dados e informações que estas aplicações tratam: o valor não estaria apenas no padrão, mas na anomalia, ou seja, no que é fora do normal e pode contribuir para gerar um sinal ou um alerta antecipado.
  6. Na análise de inteligência, pode contribuir para a formulação de hipóteses, identificação de tendências e construção de cenários de segurança: embora a IA não possa substituir a criatividade humana, pode ser um complemento interessante para as ideias fora da caixa.
  7. Estruturação de recomendações sobre questões de segurança: desde como se defender contra um ciberataque até às medidas de segurança a tomar antes ou durante uma viagem. Não substitui de forma alguma o trabalho de um analista de segurança internacional, mas apoia algumas tarefas.
  8. Análise preventiva: os dados em que se baseia podem fornecer certas previsões, com probabilidades associadas, com base na vasta quantidade de dados em que se fundamenta.
  9. Na cibersegurança, pode apoiar a deteção de phishing, testar códigos, identificar vulnerabilidades, gerar senhas seguras, ou simular conversas com intervenientes adversos, ou mesmo potenciais alvos, a fim de antecipar as suas ações.
  10. Aprendizagem: a IA generativa pode ser um primeiro ponto de aprendizagem sobre questões de segurança, sobre tecnologias e sobre riscos. Serão particularmente interessantes, na medida em que fornecem fontes e são cada vez mais aperfeiçoados.

Vivemos numa era fascinante, onde se impõem novos paradigmas cognitivos e comportamentais aos quais será necessário dar resposta.

(*) Diretor da Prosegur Research