Uma das muitas novidades potenciadas por inteligência artificial, apresentadas na última conferência de programadores da Google, foi o AI Overviews. Trata-se de uma nova funcionalidade que vai ser progressivamente adicionada ao serviço de pesquisa da empresa para enriquecer a informação compilada pelo motor de busca em temas complexos.

Dito de outra forma, a Google já usa há muito IA nos resultados de pesquisa, para os tornar mais relevantes para o utilizador e isso reflete-se na ordem com que aparecem listados os links com resultados. Com o AI Overviews, o motor de busca segue o mesmo processo, mas passa as fontes compiladas por uma ferramenta de IA generativa, que faz um resumo da informação encontrada e a organiza num texto que é depois apresentado ao utilizador.

Dito ainda de outra forma, o AI Overviews vai apresentar resultados mais idênticos àqueles que já vê quem usa o motor de pesquisa da Microsoft, o Bing, potenciado pelo GPT da OpenAI.

A novidade ficou disponível mal foi apresentada nos Estados Unidos, com planos para em breve chegar a outros mercados, mas a experiência de alguns utilizadores não tem sido brilhante. Têm proliferado na internet exemplos de resultados pouco fidedignos e alguns até perigosos. Um dos mais populares está na resposta a uma pesquisa sobre queijo que não cola à pizza. Uma das sugestões do motor de busca, apoiado pela IA generativa do Gemini, é que se adicione cola ao molho para melhorar a aderência do queijo à pizza. Também há respostas a sugerir a ingestão de pedras e vários exemplos de erros relacionados com fontes de informação.

Sundar Pichai, CEO da Alphabet, dona da Google, já admitiu que o modelo tem tido alucinações e garante que a empresa está a fazer todos os esforços para corrigir o problema, assegurou numa entrevista ao The Verge. O site de notícias dá agora mais informação sobre o que está a ser feito para resolver o problema.

Google I/O: Gemini 1.5 Pro é mais inteligente e capaz de observar o que se passa em redor
Google I/O: Gemini 1.5 Pro é mais inteligente e capaz de observar o que se passa em redor
Ver artigo

Segundo a publicação é a mão humana que está a salvar o dia e a evitar que os resultados que se transformaram em piada na internet permaneçam disponíveis e se multipliquem online, como exemplos de que a IA generativa ainda não está pronta para resolver todos os problemas do mundo. Nem mesmo alguns dos mais simples, como garantir a melhor técnica de confeção de uma pizza. Para evitar que as falhas perdurem, avança o The Verge, a Google está a usar equipas humanas para impedir que o AI Overviews responda a alguns tipos de perguntas.

Porque é que isto precisa de ser feito? Segundo vários especialistas porque aqui também se aplica o velho ditado de sabedoria popular, que diz que a pressa é inimiga da perfeição. Há um conjunto de problemas por resolver no funcionamento dos grandes modelos de linguagem que precisam de tempo e tecnologia para serem endereçados. Testar capacidades a uma escala tão abrangente como é a de um motor de pesquisa como o da Google expõe essas fragilidades, mesmo que sejam pontuais face à quantidade de resultados entregues.

Quando apresentou o AI Overviews, a Google explicou que pôde fazê-lo porque conseguiu reduzir em 80% o custo de aplicar todo o poder do seu LLM a este tipo de processo. Como referiu Sundar Pichai isso foi possível graças a alterações no hardware, engenharia e ajustes técnicos, mas as semanas seguintes vieram mostrar que todo este trabalho resolveu a questão financeira de ter um LLM a suportar um motor de pesquisa que responde a milhões de perguntas todos os dias, mas não resolveu outros problemas críticos que influenciam a perceção sobre a tecnologia.

“Muitas dos exemplos que vimos foram pesquisas pouco comuns, e também vimos exemplos que foram adulterados ou que não pudemos reproduzir”, disse a porta-voz da empresa, Meghann Farnsworth, ao The Verge, confirmando que a empresa estava a remover algumas visões gerais da IA em determinadas pesquisas e a usar outras para fazer melhorias.

Gary Marcus, especialistas em inteligência artificial e professor emérito da Universidade de Nova Iorque, sublinha à mesma fonte que muitas empresas estão a vender o sonho de que a sua tecnologia já consegue entregar respostas corretas em 80 a 100% das vezes. Segundo ele, chegar aos 80% é relativamente fácil, o maior desafio está nos restantes 20%, que dependem menos de varrer conteúdos na internet, como os LLM fazem, e mais de validações de coerência, que os mesmos modelos não conseguem fazer.

“É preciso fazer algum raciocínio para decidir: isto é plausível? Esta fonte é legítima? É preciso fazer aquilo que um verificador de factos humano poderia fazer, o que na verdade pode exigir inteligência artificial geral", defende.

O especialista acredita também que não serão os modelos atuais, na base do Gemini da Google nem o GPT-4 da OpenAI, que nos levarão à AGI - Inteligência Artificial Geral, uma ideia que o responsável de IA da Meta, Yann LeCun, também já defendeu.

Dito isto, não se avizinha um caminho fácil para resolver este tipo de falhas dos modelos até que a tecnologia ganhe mais maturidade, mesmo com todo o trabalho desenvolvido na área da IA responsável, algum do qual também feito a partir de Portugal.

Ainda para mais porque esse trabalho segue com a enorme pressão da concorrência, num ecossistema de empresas altamente pressionadas para entregar resultados e manter as máquinas de financiamento a mexer, para conseguirem também manter a fasquia de inovação que se exige. Empresas como a Alphabet ou a Meta são cotadas. A OpenAI não é, mas tem entre os grandes investidores a Microsoft, que no último ano redescobriu a receita para se destacar da concorrência graças à IA.

Os efeitos dessa pressão, com lançamentos antes de tempo, tem-se repetido. Gary Marcus recupera o lançamento da Galactica pela Meta em 2022, uma ferramenta de GenAI desativada pouco tempo depois de ser lançada. A Galactica foi lançada como uma ferramenta de apoio à pesquisa e resumo de informação científica. Pouco tempo depois de ser lançada foi usada para produzir um estudo sobre os benefícios de comer vidro triturado. A OpenAI também fez melhorias importantes a este nível entre as duas últimas versões do seu LLM.