Os robots podem aprender a fazer coisas que são mais complexas do que aparentam. Amarrar os atacadores ou apertar um parafuso implica destreza e é muito difícil de conseguir, mas é um caminho a percorrer para que os robots se “tornem mais úteis na vida das pessoas e melhorar o contacto com objetos físicos em ambientes dinâmicos”, lê-se no blog da Google DeepMind.

Os sistemas ALOHA Unleashed, um sistema de hardware de código aberto de baixo custo para tele-operação bi-manual da Stanford University, já na segunda versão e o DemoStart são os mais recentes desenvolvimentos de IA através dos quais investigadores estão a treinar destreza dos robots. O ALOHA Unleashed ajuda os robots a aprender a executar tarefas complexas e inovadoras de manipulação com dois braços e o DemoStart utiliza simulações para melhorar o desempenho no mundo real de uma mão robótica com vários dedos.

Veja o vídeo da simulação

No futuro, os robots com IA ajudarão as pessoas em todo o tipo de tarefas em casa, no local de trabalho e muito mais, mas ainda há um longo caminho a percorrer e a Google está a “fazer progressos significativos”, assinalando que “cada inovação pioneira é mais um passo na direção certa”.

Entretanto, “ao ajudar os robôs a aprender com as demonstrações humanas e a traduzir as imagens em ações, estes sistemas estão a abrir caminho para robôs que podem realizar uma grande variedade de tarefas úteis”, explica a Google.

Neste vídeo um robot aperta um parafuso

Com a IA ALOHA Unleashed, os robots conseguem apanhar e manusear objetos com dois braços, algo que até agora não tinha sido conseguido, salienta a Google. Nas experiências já executadas, usando o novo método, o “nosso robot aprendeu a amarrar um atacador, a pendurar uma camisa, a reparar outro robot, a inserir uma engrenagem e até a limpar uma cozinha”.

Este robot foi ensinado a pendurar uma t-shirt num cabide

A versão ALOHA 2 é significativamente mais competente do que os sistemas anteriores, porque tem duas mãos que podem ser facilmente tele-operadas para fins de formação e recolha de dados, e permite que os robôs aprendam a executar novas tarefas com menos demonstrações, detalha a Google.

A ergonomia do hardware robótico e o processo de aprendizagem foram melhorados no sistema mais recente. Antes de passar a informação aos braços robóticos, são recolhidos dados de demonstração, sendo o robot operado remotamente para aprender tarefas como atacar os sapatos ou pendurar T-shirts. Depois, é aplicado um método de difusão, prevendo as ações do robot a partir de ruído aleatório, semelhante à forma como o modelo ‘Imageny’ da Google, gera imagens. Deste modo o robot vai aprendendo com os dados, para que possa executar as mesmas tarefas por si próprio, explica a Google.

Aqui pode ver como um robot repara outro robot

O controlo de uma mão robótica e hábil é uma tarefa complexa, que se torna ainda mais complexa com cada dedo, articulação e sensor adicional. Para isso, o DemoStart utiliza um algoritmo de aprendizagem por reforço para ajudar os robots a adquirir comportamentos de destreza em simulação.

Por seu lado, a DemoStart aprende primeiro com estados fáceis e, com o tempo, começa a aprender com estados mais difíceis até dominar uma tarefa da melhor forma possível. Em simulação, o robot conseguiu uma taxa de sucesso superior a 98% em várias tarefas diferentes, incluindo a reorientação de cubos com uma determinada cor, o aperto de uma porca e de um parafuso e a arrumação de ferramentas. Na configuração real, obteve uma taxa de sucesso de 97% na reorientação e elevação de cubos e de 64% numa tarefa de inserção de tomadas que exigia uma elevada coordenação e precisão dos dedos.

Veja a simulação realizada pela Google

O DemoStart foi desenvolvido com o MuJoCo, o simulador de física de código aberto, da Google. Segundo o blog da Google DeepMind, a aprendizagem robótica em simulação pode reduzir o custo e o tempo necessários para realizar experiências reais e físicas. No entanto, “é difícil conceber estas simulações e, além disso, nem sempre se traduzem com sucesso no desempenho real”. Combinando a aprendizagem por reforço com a aprendizagem a partir de algumas demonstrações, a aprendizagem progressiva da DemoStart preenche a lacuna entre a simulação e a realidade, “facilitando a transferência de conhecimentos de uma simulação para um robô físico e reduzindo o custo e o tempo necessários para a realização de experiências físicas”.

Robot com três dedos
Robot com três dedos créditos: Google

Para permitir uma aprendizagem mais avançada dos robôs mediante uma experimentação intensiva, A Google testou ainda uma nova abordagem numa mão robótica com três dedos, DEX-EE, que foi desenvolvida em colaboração com o Shadow Robot.