
O Projeto Aria foi apresentado pela Meta em 2020, quando a empresa de Mark Zuckerberg considerava que o futuro era o metaverso, embora ainda se chamasse Facebook. Um ano depois, detalhava pormenores dos óculos de realidade aumentada, com capacidade de recolher dados em torno do utilizador através dos seus sensores. A última vez que se ouviu falar do Aria foi na parceria com a BMW para a criação de um sistema XR para automóveis, para assistir o condutor nas viagens.
A Meta revelou agora a segunda geração dos óculos, os Aria Gen 2, para mostrar os avanços que a empresa está a fazer na realidade aumentada. Este modelo não tem planos para se tornar um produto de consumo, mas sim para ajudar os investigadores a avançar na pesquisa de perceção da máquina, IA contextual e robótica, através do seu hardware de ponta, dados open source, modelos e ferramentas.
Em suma, os Aria Gen 2 oferecem um novo design, mais confortáveis de usar, mas com melhores capacidades de áudio, autonomia da bateria, câmaras e sensores atualizados e computação no equipamento. A Meta diz que este wearable combina os mais recentes avanços de visão computacional, machine learning e sensores. O seu design é mais compacto e leve, para ajudar os investigadores a recolher dados e a construir novos protótipos baseados em diferentes definições.
Na imagem partilhada com as funcionalidades dos óculos percebe-se que se trata de um verdadeiro “canivete suíço” de tecnologia. Inclui câmaras de rastreamento ocular, quatro câmaras, altifalante estéreo, sistema de navegação por satélite (GNSS), sensor de luz ambiente, sete microfones espaciais, entre outros detalhes.

No que diz respeito ao conforto de utilização, os óculos receberam uma atualização de design para se adaptar a diversas formas faciais. Pesa entre 74-76 gramas, mediante o tamanho e agora inclui hastes dobráveis para que sejam mais fáceis de arrumar.
A visão computacional suporta agora HDR a 120 dB, comparado com os 70 dB da primeira versão. A Meta diz que esta atualização permite melhores tarefas de computação em diferentes condições de iluminação. Foi também aumentado o campo de visão através de quatro câmaras, o dobro da primeira geração, vendo agora a 80º (o primeiro estava limitado a 35º).

Os sensores de iluminação permitem melhor controlo sobre os algoritmos de exposição e o modo ultravioleta consegue distinguir entre a iluminação no exterior e interior. Os microfones foram escondidos nos apoios do nariz, ajudando a melhorar a captura do áudio em ambientes mais ruidosos. Estes apoios do nariz contam ainda com um sensor PPG que permite medir a atividade cardíaca do utilizador.
Por fim, os algoritmos processados nos próprios óculos, permitem medir a inércia visual, que ajuda a navegação e mapeamento dos ambientes, que a Meta diz abrir novas possibilidades para investigação de IA contextual e robótica. O sistema de rastreamento ocular fornece informações de saúde, capaz de detetar os movimentos das pupilas, o piscar dos olhos, etc. Também tem funções de rastreamento de mãos em espaços 3D, que pode ajudar nas aplicações que requerem mais destreza de manipulação com as mãos dos robots.

Pergunta do Dia
Em destaque
-
Multimédia
Jogo de estratégia tática Star Wars: Zero Company inspira-se na série XCOM -
App do dia
ColorSlurp: Não encontra a cor certa? Esta app dá uma ajuda nos projetos criativos -
Site do dia
Reve Image é o novo motor de geração de imagens de IA super realistas -
How to TEK
Como eliminar as passwords guardadas no Google Chrome, Edge e Firefox?
Comentários