Por Gonçalo Costa Andrade (*) 

Num mundo em que é possível esclarecer dúvidas através de pareceres baseados em texto, as oportunidades são infinitas, enquanto um vasto oceano de conhecimento se expande para aprimorar a aprendizagem e a produtividade.

Com a evolução da tecnologia, as opções estão a aumentar e contemplam contribuir para a escrita de artigos, ensaios ou e-mails; aceder a pesquisas resumidas; gerar e desenvolver ideias; pesquisar de forma personalizada, com recomendações para o comércio e viagens; e explicar temas complexos para fins educativos e de formação. Com a IA generativa, a pesquisa torna-se substancialmente diferente. Em vez de fornecer links para vários resultados, o utilizador recebe respostas diretas, sintetizadas a partir de uma miríade de dados. A experiência é semelhante a ter uma conversa com uma máquina muito inteligente.

Mas afinal, como funciona a IA generativa?

A IA generativa utiliza uma forma avançada de algoritmos de aprendizagem automática que recebe as sugestões dos utilizadores e usa o processamento de linguagem natural (NLP) para gerar respostas para praticamente qualquer pergunta. Utiliza vastas quantidades de dados da Internet, pré-treino em grande escala e aprendizagem reforçada para permitir interações surpreendentemente semelhantes às humanas. A aprendizagem reforçada a partir do feedback humano, é utilizada para adaptar-se a diferentes contextos e situações, tornando-se mais precisa e natural ao longo do tempo. A IA generativa está a ser analisada para uma variedade de utilizações, incluindo marketing, suporte ao cliente, comércio e educação.

O ChatGPT foi o protótipo pioneiro, mas atualmente existem muitos outros concorrentes.

O ChatGPT utiliza uma arquitetura de deep learning chamada Transformer e representa um avanço significativo no campo do processamento de linguagem natural. Embora a OpenAI tenha liderado o caminho, a concorrência está a crescer. Segundo a Precedence Research, o tamanho do mercado global de IA generativa atingiu 10,79 milhões de dólares em 2022 e espera-se que chegue a cerca de 118,06 milhões de dólares até 2032, com uma taxa de crescimento anual composta de 27,02% entre 2023 e 2032. Os valores são impressionantes, mas com algumas advertências.

O que se pode fazer para “escalar” a IA generativa eticamente?

À medida que os resultados dos insights de IA se tornam cada vez mais críticos para os negócios e as alternativas tecnológicas continuam a crescer, é necessário garantir que os modelos de IA generativa operam de forma responsável, com processos transparentes e resultados explicáveis. As empresas que incorporam proativamente a governança e a cibersegurança nas suas iniciativas relacionadas com IA, mais facilmente irão detetar e mitigar os riscos dos protótipos, enquanto fortalecem a própria capacidade de cumprir princípios éticos e regulamentações governamentais.

É crucial alinhar a tecnologia a capacidades empresariais confiáveis. É possível consultar os avanços da IBM neste alinhamento, em novos modelos de IA generativa concebidos com o watsonx.ai e com watsonx.governance implementados proativamente para promover fluxos de trabalho de IA responsáveis, transparentes e compreensíveis, hoje e no futuro.

O que é “watsonx.governance”?

O watsonx.governance oferece um conjunto poderoso de ferramentas de governança, risco e conformidade (GRC) construídas para operacionalizar fluxos de trabalho associados ao ciclo de vida da IA, detetar e amenizar riscos de forma proativa e melhorar a conformidade com os crescentes e mutáveis requisitos legais, éticos e regulatórios. Relatórios personalizáveis, painéis de controlo e ferramentas colaborativas conectam equipas distribuídas dedicadas a melhorar a eficiência, produtividade e responsabilização dos intervenientes. A captura automática de metadados e factos do modelo disponibiliza suporte de auditoria, enquanto gera resultados transparentes e compreensíveis.

IA generativa e alguns riscos de negócio associados

Existem algumas questões fundamentais ao utilizar modelos generativos pré-construídos e “prontos a usar”. Cabe a cada organização equilibrar as oportunidades de criação de valor com os riscos envolvidos. Dependendo do negócio e para o que está a ser utilizado, se a tolerância ao risco for baixa, as organizações chegarão à conclusão que desenvolver uma solução internamente ou trabalhar com um parceiro de confiança acabará por produzir melhores resultados.

Existem cuidados a ter em conta com modelos de IA generativa prontos a usar:

. A informação na internet nem sempre é imparcial e precisa

Atualmente, no cerne da maior parte da IA generativa, encontra-se uma imensidão de dados provenientes de fontes como a Wikipedia, sites, artigos, ficheiros de imagem ou áudio, etc. Os modelos generativos encontram padrões nos dados subjacentes para criar conteúdo e, sem o controlo adequado, pode haver intenções maliciosas para promover a desinformação, o viés e o assédio online. Como esta tecnologia é relativamente recente, por vezes existe uma falta de responsabilidade e um aumento da exposição a danos na reputação e regulação das empresas, assim como questões com direitos de autor e royalties.

. A desconexão entre a finalidade pensada pelo criador e a potencialidade da “obra”

Os programadores de modelos generativos podem não prever todos os fins para os quais o modelo poderá ser utilizado e adaptado. Isso pode resultar em suposições e resultados erróneos, que não são críticos quando envolvem decisões menos importantes, como selecionar um produto ou um serviço, mas tornam-se relevantes quando afetam uma decisão crítica para o negócio, que pode expor a organização a acusações de comportamento antiético, incluindo preconceito, ou problemas de conformidade regulatória que podem levar a auditorias ou multas.

. Litigação e regulamentação impactam a utilização

A preocupação com a litigação e a regulamentação limitará inicialmente como as grandes organizações utilizam a IA generativa. Isso é especialmente verdadeiro em setores altamente regulamentados, como serviços financeiros e saúde, em que a tolerância a decisões antiéticas e tendenciosas baseadas em dados incompletos ou imprecisos é muito baixa e os modelos podem ter repercussões prejudiciais.

Eventualmente, o cenário regulatório para modelos generativos irá ajustar-se com no tempo, mas as empresas terão de ser proativas na adesão a essas regulamentações para evitar violações de conformidade, danos à reputação da empresa, auditorias e multas.

(*) Portugal Software & Security Services Manager da IBM