Investigadores da Universidade de Washington e do Allen Institute treinaram redes neurais para tentar compreender o comportamento dos cães. Na experiência foram utilizadas filmagens e capturas de movimento de um canino de raça malamute, utilizando uma câmara GoPro montada na sua cabeça e sensores de movimento ligados às suas penas e corpo. Ao todo foram capturados cerca de 380 vídeos das atividades do quotidiano da cadela Kelp, enquanto passeava e brincava.
Os investigadores utilizaram a informação capturada para alimentar a inteligência artificial através de deep learning. Através desta técnica foi possível cruzar a informação dos sensores dos membros da cadela com as filmagens do que estava a observar, levando a máquina a antecipar como o animal reagiria em determinadas situações.
Como exemplo, se fosse arremessada uma bola, a IA saberia que a cadela iria persegui-la. Para além disso, outros comportamentos demonstrados através de inteligência visual foram anotados, como o reconhecimento de comida, os obstáculos e reações a outros animais e humanos.
Após treinar a rede neural com o comportamento do cão, os investigadores testaram a IA para perceber se o computador aprendeu alguma coisa sobre o mundo que não fosse explicitamente programado. Foram feitos dois testes à rede: um deles para identificar diferentes cenários, tais como interiores, exteriores, escadas, etc., e o outro, os locais que a cadela poderia percorrer.
A rede respondeu com grande precisão através da informação anteriormente recolhida, prevendo como a cadela se movia nos vários cenários e como decidia mudar de um estado de comportamento para outro. Foi assim demonstrado como a IA aprendeu com o comportamento da cadela para generalizar outras tarefas.
Através deste sistema em que a rede neural foi alimentada com imagens diretas de vídeo e informações geradas pelos sensores de movimentos, os investigadores afirmam que a IA aprendeu sem a necessidade de introduzir informações manuais ou descrições detalhadas previamente sobre o comportamento do animal.
O estudo concluiu que será possível estender a experiência a outros agentes e cenários. Além disso, a investigação centrou-se apenas na informação visual, ficando de fora outros canais de interação com o mundo, tais como o som, o toque e o cheiro.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários