Por José María Blanco Navarro (*)
O ChatGPT, muito popular nos últimos meses, é apenas um dos desenvolvimentos na inteligência generativa que tem sido disponibilizado ao público em geral. Além de suscitar muita curiosidade, gerou muito debate. Trata-se de uma forma de aprendizagem automática, baseada em modelos linguísticos, capaz de gerar novos conteúdos em qualquer formato (texto, imagem, vídeo, voz, código).
Anteriormente, aplicações como Dall-e, Midjourney ou Stable Diffusion surpreenderam com a sua capacidade de produzir imagens de alta qualidade a partir de texto. Há algumas semanas, a Microsoft apresentou a sua proposta de Bing com IA, cujo potencial é muito maior do que o do ChatGPT. Espera-se que a solução Bard do Google seja lançada em breve. Entretanto, há uma proliferação de propostas que não se limitam a oferecer resultados textuais baseados em modelos linguísticos, mas abrangem a geração e combinação de qualquer tipo de conteúdo.
Não há dúvida de que a tecnologia apoia o progresso. Enormes avanços tecnológicos melhoraram aspetos tão fundamentais para os seres humanos como a comunicação, a educação e a saúde. Mas também sabemos, especialmente no campo da segurança, que cada oportunidade gera novas ameaças.
Tendo em conta o rápido desenvolvimento destas tendências, na Prosegur Research, centro Insight&trends da Prosegur, analisámos as implicações do ChatGPT numa perspetiva de segurança, e identificámos os principais riscos e oportunidades que resultam da sua aplicação em diferentes áreas.
Os dez principais riscos de segurança decorrentes do ChatGPT, segundo a análise da Prosegur Research, são os seguintes:
- Polarização social: a IA generativa, dada a sua capacidade de produzir conteúdo multimédia, pode ser utilizada para divulgar mensagens de ódio ou discriminação, bem como mensagens de natureza extremista.
- Phishing: geração automatizada de e-mails com uma aparência “real”, elaborados com o objetivo de enganar os utilizadores a fim de aceder aos seus dados, a informações confidenciais, ou a sistemas informáticos. Há que ter em conta que a IA generativa redige com uma grande qualidade, o que invalidar as suspeitas que, por exemplo, um phishing de baixa qualidade origina.
- Desinformação: através da criação de notícias falsas, são feitas tentativas para influenciar a opinião pública, prejudicar a coesão social ou afetar os processos eleitorais. A desinformação é uma questão clara que afeta a segurança pública, prejudicando a coesão social e os princípios democráticos.
- Doxing: a desinformação também poderá vir a afetar empresas e organizações, com a disseminação de burlas, informação tendenciosa, criação de perfis profissionais falsos, ou a manipulação de documentos que prejudiquem a credibilidade das organizações. O seu objetivo pode variar desde uma simples paródia até ao ataque à reputação ou à influência dos mercados.
- Fuga de informação e roubo de dados: empresas como a Amazon e Google alertaram os seus colaboradores para os riscos de partilhar informações sobre as empresas no ChatGPT e aplicações semelhantes, já que poderiam vir a ser divulgadas mais tarde nas respostas fornecidas aos utilizadores.
- Fraudes e esquemas: são tipologias criminais que têm vindo a crescer nos últimos anos. As fraudes tradicionais, que existem em todos os setores económicos, são reforçadas pela utilização da Internet, das redes sociais e das novas tecnologias. A IA generativa pode ajudar a realizar fraudes com muito maior qualidade, bem como a definir alvos.
- Criação de chatbots maliciosos com intenção criminosa: podem interagir com indivíduos para obter informação sensível ou fins económicos ilícitos.
- Roubo de identidade: a utilização das chamadas "deep fakes” juntamente com a capacidade da IA de gerar texto, imagens, vídeos e até mesmo simular voz, e a criação de avatares que integram todos estes elementos, facilitam o aumento da credibilidade das identidades falsas.
- Criação de código malicioso, como vírus, trojans (cavalos de troia), malware, ransomware, spyware: o objetivo é cometer crimes cibernéticos de naturezas diferentes.
- Lutas de poder geopolítico e geoeconómico: num contexto de poderes difusos e fragmentados, a liderança já não se mede apenas pela capacidade económica, diplomática ou militar. A geopolítica e a geoeconomia apresentam novos riscos, mas também oportunidades para os estados e empresas que tenham uma grande capacidade de antecipação e prevenção. Os dados, juntamente com as tecnologias, estão no centro da configuração do poder, criando uma assimetria entre aqueles que o têm e aqueles que não o têm.
Contudo, a tecnologia, como um grande fator de mudança nas nossas sociedades, normalmente não surge orientada para o uso malicioso. Por esta razão, na Prosegur Research também quisemos analisar as oportunidades que o ChatGPT pode gerar no domínio da segurança, entre as quais se destacam as seguintes:
- Automatização de tarefas rotineiras em funções de segurança: poderia potenciar mais as capacidades humanas e facilitar o bem-estar dos colaboradores, eliminando tarefas repetitivas e monótonas.
- Criação de chatbots apelativos: com um perfil mais amigável e mais humano, melhorando assim a interação com os clientes e outros utilizadores.
- Acesso a vastas quantidades de informação relevante para a segurança, de forma estruturada através da utilização de linguagem natural: neste caso, as capacidades de inteligência de fonte aberta (OSINT) são reforçadas, estando sempre conscientes dos critérios de avaliação relativamente à credibilidade das fontes e da informação.
- Em análises de risco: pode ajudar na deteção e na catalogação de riscos para as organizações.
- Reconhecimento de padrões, dentro do vasto conjunto de dados e informações que estas aplicações tratam: o valor não estaria apenas no padrão, mas na anomalia, ou seja, no que é fora do normal e pode contribuir para gerar um sinal ou um alerta antecipado.
- Na análise de inteligência, pode contribuir para a formulação de hipóteses, identificação de tendências e construção de cenários de segurança: embora a IA não possa substituir a criatividade humana, pode ser um complemento interessante para as ideias fora da caixa.
- Estruturação de recomendações sobre questões de segurança: desde como se defender contra um ciberataque até às medidas de segurança a tomar antes ou durante uma viagem. Não substitui de forma alguma o trabalho de um analista de segurança internacional, mas apoia algumas tarefas.
- Análise preventiva: os dados em que se baseia podem fornecer certas previsões, com probabilidades associadas, com base na vasta quantidade de dados em que se fundamenta.
- Na cibersegurança, pode apoiar a deteção de phishing, testar códigos, identificar vulnerabilidades, gerar senhas seguras, ou simular conversas com intervenientes adversos, ou mesmo potenciais alvos, a fim de antecipar as suas ações.
- Aprendizagem: a IA generativa pode ser um primeiro ponto de aprendizagem sobre questões de segurança, sobre tecnologias e sobre riscos. Serão particularmente interessantes, na medida em que fornecem fontes e são cada vez mais aperfeiçoados.
Vivemos numa era fascinante, onde se impõem novos paradigmas cognitivos e comportamentais aos quais será necessário dar resposta.
(*) Diretor da Prosegur Research
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Wayther: uma nova app de previsões meteorológicas detalhadas para otimizar viagens -
Site do dia
Tetr.io é uma versão competitiva de Tetris e os adversários não dão tréguas -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários