A divisão de inteligência artificial da Google, a DeepMind, revelou novidades para os seus modelos de IA criados para "alimentar" robots. A mais recente atualização do Gemini Robotics 1.5 permite aos robots realizarem múltiplas tarefas e a aprenderem entre si. Com isso, podem executar e completar tarefas mais complexas e quando não conseguem, pesquisam na internet para aprenderem como resolver. 

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

Segundo Carolina Parada, responsável pela divisão de robótica da DeepMind, os novos novos modelos podem trabalhar em sintonia para que os robots possam pensar múltiplos passos à frente, antes sequer de tomarem ação no mundo físico, salienta o The Verge. O modelo Gemini Robotics 1.5 trabalha junto com o modelo de raciocínio profundo, o Gemini Robotics-ER 1.5. 

Veja o vídeo

Desta forma, os robots ganham a capacidade de realizar mais que uma tarefa, tais como dobrar uma folha de papel, permitindo agora fazer coisas, tais como separar a roupa entre peças claras e escuras, fazer uma mala baseado na previsão meteorológica de uma cidade. A separação do lixo, entre os compostos orgânicos e os recicláveis também são realizados, tendo como base uma busca na internet através da Pesquisa Google. Segundo a investigadora, esta evolução passa de uma instrução para uma verdadeira compreensão e capacidade de resolver problemas em tarefas físicas. 

Gemini Robotics-ER 1.5
Gemini Robotics-ER 1.5

Na prática, o modelo Gemini Robotics-ER 1.5 capta a compreensão do meio em seu redor, utilizando ferramentas como a Pesquisa da Google para encontrar mais informação. Depois o modelo traduz o que descobriu em instruções em linguagem natural para o Gemini Robotics 1.5, recorrendo à visão e linguagem para compreender e executar cada tarefa. 

Os modelos ficam agora disponíveis para os developers através da API do Gemini no Google AI Studio, entre os parceiros selecionados para testar as funcionalidades.