Nos filmes de ficção científica é normal ver robots com inteligência e autonomia humana a executar diversas tarefas. Mas a startup Figure construiu um robot que para lá caminha. O Figure 01 tem inteligência artificial da OpenAI, a empresa que criou modelos de IA generativa como o ChatGPT. E o resultado, mostrado em vídeo, é no mínimo “assustador”, tal o realismo na conversa e na manipulação de objetos entre a máquina e um humano.
Entre a interação, o humano fala de forma natural com o robot, fazendo-lhe perguntas sobre os elementos em seu redor e este responde com bastante naturalidade. O primeiro pedido foi identificar aquilo que estava à sua volta, apontando com eficácia que se tratava de uma maçã no centro da mesa e um tabuleiro de secagem de loiça com pratos e copos. Ao pedir-lhe algo para comer, o robot pegou na maçã e estendeu o braço para entregá-la ao humano.
Veja o vídeo da interação entre um humano e um robot com IA da OpenAI:
A voz fluída do robot e os movimentos perfeitos dos seus braços e tronco enquanto executam as ações pedidas são impressionantes, da mesma forma que este respondeu a uma questão enquanto executou uma ação, tal como pedido. Mas mais desconcertante foi observar a pausa na frase com um “uh”, como se fosse mesmo um humano a refletir o que dizer a seguir.
A Figure chama-lhe de tecnologia de redes neurais end-to-end, com o modelo de inteligência artificial criado pela OpenAI a contribuir com o sistema de compreensão de linguagem e reconhecimento visual. Ao passo que a Figure oferece ao robot as redes neurais para que este desenvolva as ações, neste caso de um modelo destro.
Veja na galeria imagens do robot:
Segundo Brett Adcock, o fundador da startup, as empresas colaboram há apenas duas semanas e a apresentação dessa parceria vem acompanhado com o fruto de 13 dias de trabalho naquele que é a criação da próxima geração de modelos de robots humanoides com inteligência artificial. É explicado que não existe nenhum sistema de ações teleoperadas, ou seja, um humano a dar instruções através de um equipamento ligado ao cérebro para que o robot o imite. Tal como aconteceu com o Optimus da Tesla, no famoso vídeo em que este foi mostrado a dobrar roupa.
O vídeo do Figure 01 mostra uma maior velocidade no processamento das ações, que Brett Adcock diz estar quase a aproximar-se do humano. Mesmo que haja uma pausa entre a conversa do humano com o robot para o processamento, sem dúvida que é bastante rápida a compreensão da máquina perante os comandos do humano. O robot mostrado no vídeo consegue descrever a sua experiência visual, planear ações futuras, consultar a sua própria memória, explicar o seu raciocínio verbalmente.
No seu longo post na rede social X, o fundador da startup diz que o robot integra motores, firmware, sistemas termais, eletrónica, sistemas operativos middleware, baterias, sensores de atuação e estruturas mecânicas.
Pergunta do Dia
Em destaque
-
Multimédia
Imagens de satélite mostram impacto das cheias em Espanha e ajudam a salvar vidas -
App do dia
O seu telefone é “esperto” o suficiente? A app Geekbench AI quer servir como tira-teimas -
Site do dia
Tem boa capacidade de observação? Então tente encontrar as personagens em i-Spy -
How to TEK
4 dicas rápidas para tirar partido do iPad e tornar-se mais produtivo
Comentários