A versão mais avançada do assistente da Google alimentado por inteligência artificial generativa, o Gemini Live, começou a ganhar um novo atributo. O assistente já consegue ver o que está "do outro lado" do ecrã do smartphone em que está a ser utilizado, interpretar o que está a ver e responder a perguntas em tempo real.

A funcionalidade estava anunciada. Um utilizador reportou no Reddit que já estava a funcionar e um porta-voz da empresa confirmou ao The Verge que as novidades, mostradas no ano passado como parte do projeto Astra, de facto já começaram a ser introduzidas na versão mais exclusiva do Gemini Live.

Este é o vídeo publicado pela Google a mostrar as novas habilidade do assistente

No início deste mês, a Google já tinha dito que ia lançar duas novas funcionalidades para os assinantes do Gemini Advanced e do plano Google One AI Premium, que é o caso do utilizador que partilhou informação sobre as novas funcionalidades.

No entanto, não se sabe se a ideia continuará a ser manter o acesso restrito a estes clientes, uma vez que no último ano a Google também mudou de ideias em relação à política de acesso ao Gemini Live, que passou a ser gratuito para qualquer utilizador Android com a app Google Gemini instalada.

Gemini Live está mais versátil com suporte a imagens, ficheiros e vídeos do YouTube
Gemini Live está mais versátil com suporte a imagens, ficheiros e vídeos do YouTube
Ver artigo

O utilizador que deu pela novidade explica que o assistente também já consegue ler o que está no ecrã do equipamento e interagir a partir daí. A outra nova capacidade envolve vídeo em direto, com o assistente a conseguir interpretar aquilo que vê, precisamente no momento em que vê.

A Google já tinha publicado um vídeo no início do mês a mostrar estas habilidades. No caso, o assistente ajuda a escolher a melhor cor para pintar um vaso de cerâmica.