A OpenAI estará a trabalhar no desenvolvimento de capacidades avançadas de raciocínio para os seus modelos de inteligência artificial. Um dos objetivos será permitir mais ações autónomas, para alcançar melhores resultados na resposta a perguntas, através de “pesquisa profunda”. Isto é, fazer com que o modelo não se limite a gerar respostas a perguntas com a informação que já tem, mas que consiga planear com antecedência suficiente para navegar na Internet de forma autónoma e fiável.
Como é sabido, a IA generativa trouxe grandes avanços, pela sua capacidade de resumir textos ou criar conteúdo a partir de exemplos, mas a capacidade de avaliar as informações usadas com o “bom senso” que teria um humano é limitada e é essa lacuna que provoca as chamadas alucinações dos modelos.
A informação sobre este novo projeto está a ser avançada pela Reuters, que alega ter tido acesso a documentos com estes detalhes e que frisa o contacto com vários especialistas, depois do acesso aos dados, que confirmaram o potencial deste tipo de avanço.
Os investigadores de IA entrevistados concordam que o raciocínio, no contexto da IA, passa pela formação de um modelo que permita planear com antecedência, refletir o funcionamento do mundo físico e resolver problemas difíceis em várias etapas e de forma fiável.
Uma reprogramação do modo de funcionamento do LLM da OpenAI neste sentido alteraria sobretudo aquilo que acontece na fase de pós-treino do modelo, uma fase de validação dos conhecimentos adquiridos no processo de varrimento da internet. Esta é uma fase em que hoje entram muitas vezes humanos, para validar se a utilização ou associação de determinados conhecimentos resulta em informação correta ou se faz sentido.
A OpenAI quer dar recursos ao modelo para fazer pesquisas mais profundas na internet, sozinho, e acrescentar “raciocínio” à ligação das informações que tem disponíveis. Entre os entrevistados da Reuters há quem sublinhe que este é o caminho para a inteligência artificial geral (o ponto em que a IA consegue replicar a inteligência humana) e por isso vale a pena estar atento aos resultados que a dona do ChatGPT conseguirá alcançar. Este é no entanto um ponto pouco consensual mesmo entre os especialistas. Yann LeCun, que trabalha na Meta, tem defendido várias vezes que os LLM nunca vão conseguir ter a racionalidade de um humano, lembra também a agência.
O projeto em questão é secreto e terá o nome de código Strawberry (morango). Será a evolução de um projeto anterior, que no início deste ano mostrou que a tecnologia já tinha condições para responder a “perguntas complicadas de ciência e matemática”, avançaram fontes que tiveram acesso às demonstrações. Numa primeira fase o projeto tinha o nome de código Q* (Q star, ou estrela Q). Não há para já detalhes sobre o que a empresa tenciona fazer a seguir. Se pretende continuar com os desenvolvimentos, ou integrar a tecnologia rapidamente num produto comercial.
Contactada pela Reuters, a OpenAI não comentou diretamente sobre o Strawberry, mas fez uma declaração, a frisar aquilo que já tinha dito outras vezes. "Queremos que os nossos modelos de IA vejam e compreendam o mundo mais como nós. A investigação contínua de novas capacidades de IA é uma prática comum na indústria, com a convicção partilhada de que estes sistemas irão melhorar o raciocínio ao longo do tempo".
Pergunta do Dia
Em destaque
-
Multimédia
Indiana Jones regressa de chicote para nova aventura em videojogo. Qual é o enigma do grande círculo? -
App do dia
Google Maps torna-se guia local e indica "pérolas" escondidas nas suas viagens -
Site do dia
GOG tem novo programa de preservação de videojogos -
How to TEK
Saiba como definir o tempo limite que as crianças podem jogar Fortnite
Comentários