
Por Nuno Ruivo (*)
A evolução da inteligência artificial generativa trouxe uma infinidade de casos de uso, alguns com grande sucesso e outros onde os resultados ficaram aquém das expectativas. Esta proliferação de sistemas baseados em IA foi amplamente impulsionada pelos modelos de linguagem, e a corrida dos grandes fabricantes para desenvolver o melhor Modelo de Linguagem do Mundo é prova disso. Desde o GPT (OpenAI/Microsoft), passando pelo Gemini (Google), pela gama Granite (IBM), pelo Claude (Anthropic), Deepseek, Mistral, Llama, entre outros, todos eles têm algo em comum: são, na sua maioria, LLMs (Large Language Models).
Mas o que é que isto significa? Basicamente, que são modelos que não só compreendem a linguagem como incorporam enormes volumes de informação sobre múltiplos temas o que, na prática, pode ser “… tem tudo e mais não sei o quê!”. Em teoria, isto parece ótimo, mas na prática levanta uma questão fundamental: será que precisamos mesmo de um modelo tão abrangente para todas as aplicações?
A resposta é um redondo não. Se eu estiver a implementar um sistema de IA para vídeo peritagem de veículos e análise de danos em sinistros, para que preciso de um modelo que também sabe dar receitas de bacalhau? Ou, se a minha empresa opera no setor jurídico, faz sentido que o modelo tenha conhecimento sobre mecânica quântica? Partilhando uma expressão utilizada por um cliente, o que eu quero é um modelo que fale apenas “Banquês”, não preciso que fale ou tenha conhecimento de telecomunicações ou de outros setores.
A realidade é que esses dados extra apenas ocupam espaço e exigem recursos computacionais elevados para suportar a execução destes modelos. É o equivalente a usar um canhão para matar uma formiga: um desperdício de recursos.
Como alternativa, começam a ganhar relevância os SLMs (Small Language Models). São modelos mais pequenos, treinados especificamente para um domínio ou área de conhecimento, tornando-se verdadeiros especialistas no seu campo, sem se perderem em divagações.
Os benefícios de optar por SLMs em vez de LLMs são vários, por exemplo:
- Infraestrutura mais leve: Para quem pretende uma solução on-premises, o hardware necessário para correr um SLM é significativamente mais reduzido, tornando a adoção da IA mais viável, especialmente para organizações com preocupações de segurança e privacidade.
- Custo mais baixo: Em ambientes cloud, o custo por token (unidade de processamento dos modelos) é muito inferior nos SLMs, o que se traduz em poupanças consideráveis a longo prazo.
- Menor probabilidade de alucinações: Como os SLMs trabalham com conjuntos de dados mais limitados e específicos, a probabilidade de fornecerem respostas irrelevantes ou erradas é reduzida.
- Sustentabilidade: Este tema está também na ordem do dia e que é uma preocupação para muitas empresas. A pegada de carbono associada ao treino e execução de um SLM é muito menor do que a de um LLM, permitindo uma abordagem mais ecológica e eficiente da IA.
Então porque continuamos a utilizar LLMs?
Em Portugal, a principal razão para a baixa adoção dos SLMs é a falta de modelos especializados que compreendam e processem corretamente o português europeu. Além disso, encontrar o modelo certo para cada necessidade exige tempo e testes, o que leva muitas empresas a optar pelo caminho mais simples: recorrer a um LLM e depois filtrar a informação irrelevante.
Outra alternativa seria treinar modelos específicos, mas essa abordagem ainda não é viável para grande parte das organizações, devido aos custos e complexidade envolvidos e falta de capacidades humanas, materiais e financeiras para o fazerem.
O futuro: um cenário mais especializado
Estudos indicam que a aposta em SLMs especializados será uma tendência nos próximos anos, com cada vez mais empresas a recorrerem a modelos mais pequenos e direcionados para determinadas tarefas. Em Portugal, esta mudança pode ser impulsionada pelo desenvolvimento do primeiro grande SLM nacional, o AMALIA. Se for bem-sucedido, poderá representar um marco na forma como adotamos IA, tornando-a mais eficiente, acessível e adaptada às nossas necessidades.
No final do dia, a questão mantém-se: queremos modelos que sabem de tudo um pouco, mas sem especialização, ou modelos mais pequenos, focados e eficazes para cada contexto? O futuro dos nossos projetos pode muito bem passar por encontrar este equilíbrio.
(*) Responsável da unidade de Inteligência Artificial da Minsait em Portugal (Indra Group)
Pergunta do Dia
Em destaque
-
Multimédia
Drones integrados em automóveis elétricos? DJI e BYD já testam tecnologia na China -
App do dia
BeenThere foi feita para fãs de viagens que querem partilhar as suas memórias fotográficas -
Site do dia
Nuenki transforma a navegação online numa oportunidade para aprender novas línguas -
How to TEK
Tem o Instagram inundado de posts de contas que não segue? Ponha as sugestões em pausa
Comentários