A Meta apresentou um novo modelo de linguagem capaz de controlar os movimentos de um agente digital de aspeto humano, de forma mais realista e natural. O LLM (grande modelo de linguagem, na sigla em inglês) dá corpo a um projeto de investigação cujos resultados acabam de ser partilhados com a comunidade, mas no futuro os avanços podem ser determinantes para mudar a experiência de interação no Metaverso.
A empresa acredita que os resultados da pesquisa podem ser a base para agentes totalmente incorporados no Metaverso, levando a NPCs (personagens não jogáveis) mais realistas, à democratização da animação de personagens e a novos tipos de experiências imersivas.
O Meta Motivo é um modelo de base comportamental pioneiro, que “controla os movimentos de um agente humanoide virtual incorporado para executar tarefas complexas”, explica a Meta. É treinado com um novo algoritmo, que aproveita um “conjunto de dados de movimentos não rotulados para fundamentar a aprendizagem por reforço não supervisionada” e para aprender comportamentos semelhantes aos dos humanos.
A empresa explica ainda que a principal novidade técnica do algoritmo está no facto de “aprender uma representação que pode ser utilizada para incorporar estados, movimentos e recompensas no mesmo espaço latente”. Significa isto, que o Meta Motivo é capaz de resolver uma gama alargada de tarefas de controlo de todo o corpo, sem treino ou planeamento adicional.
O objetivo da partilha de resultados em open source é cativar a comunidade para continuar a trabalhar na tecnologia, mas a Meta assegura que o modelo assegura já um desempenho competitivo, comparativamente a métodos específicos de tarefas e que supera o desempenho da aprendizagem por reforço não supervisionada de última geração.
“O modelo também apresenta um nível surpreendente de robustez a mudanças no ambiente, como a gravidade, o vento ou perturbações diretas, apesar de não ter sido treinado para elas”, acrescenta uma nota no blog oficial.
O Meta Motivo é uma das partilhas anunciadas pela empresa esta quinta-feira, no âmbito das suas atividades FAIR - Meta Fundamental AI Research. Em open source, o grupo colocou resultados de pesquisa, código, modelos e conjuntos de dados, todos eles centrados no trabalho de investigação fundamental que a empresa tem vindo a fazer para servir a criação de agentes virtuais mais “capazes, robustos e seguros”, com arquiteturas que permitem aos modelos aprender de forma mais eficaz e ampla.
Pergunta do Dia
Em destaque
-
Multimédia
Mats Steen: a história de um jogador de World of Warcraft que foi além do virtual -
App do dia
Sky Force Reloaded: Um clássico arcade renovado para o século XXI -
Site do dia
Transcreva ficheiros áudio e vídeo em várias línguas e formatos com o Yescribe.ai -
How to TEK
Cansado de respostas na pesquisa do Google com elementos de IA? Saiba como desativar
Comentários