
Depois de anunciado em março, a Google está agora a disponibilizar o Gemini Live a todos os assinantes do Gemini Advanced em equipamentos Android compatíveis. Ao mesmo tempo, está a levar a tecnologia a todos os utilizadores do Gemini Basic em equipamentos Pixel 9 e Samsung Galaxy S25.
A principal característica do assistente de inteligência artificial é conseguir ver para lá do ecrã do smartphone em que está a ser utilizado, assim como interpretar o que está a ver, respondendo a perguntas feitas pelo utilizador em tempo real, em mais de 45 idiomas suportados.
Algumas das utilizações práticas passam, por exemplo, apontar a câmara do telefone a uma gaveta ou prateleira desarrumada e receber sugestões do Gemini para categorizar os respetivos objetos, a otimizar e maximizar o espaço ou identificar itens que poderá doar ou descartar.
Durante uma rotina criativa, pode fazer um brainstorming em voz alta com o Gemini. Sejam texturas de uma árvore, as cores de um cenário que fotografou, ao mostrar essas imagens ao modelo, pode pedir por ideias para desenhos, para criar um texto criativo ou trabalhos manuais.
Outra utilização diz respeito a análise de situações do dia-a-dia onde pode obter informações para solucionar problemas. Pode mostrar ao Gemini Live um ralo entupido ou um router que não está a conseguir ligar-se à internet e obter respostas. Nas compras online, o Gemini pode ser também um assistente pessoal. Basta partilhar o ecrã com a IA e fazer perguntas tais como a combinação de cores de vestuário ou conselhos sobre o seu estilo de vestir. E se apontar a câmara ao guarda-roupa pode também obter feedback sobre as escolhas.
Veja no vídeo o exemplo prático do Gemini Live:
Quando está a trabalhar também pode questionar o Gemini Live, recebendo feedback sobre um texto partilhado num blog, uma campanha para as redes sociais ou sobre a coleção de fotos. O modelo analisa o seu conteúdo, identifica quais as áreas onde pode melhorar e dar recomendações personalizadas.
Baseado no protótipo de investigação do Projeto Astra, apresentado no Google I/O em maio do ano passado, o objetivo da Google é construir um assistente de IA que seja universal e capaz de compreender e interagir com o mundo em redor. A câmara e a partilha de ecrã funcionam como uma janela de interação e partilha de mais contexto para uma interação ainda mais natural e de forma intuitiva.
Pergunta do Dia
Em destaque
-
Multimédia
Drones integrados em automóveis elétricos? DJI e BYD já testam tecnologia na China -
App do dia
Tapestry é uma app para ter tudo o que gosta num só lugar -
Site do dia
Jogo online ensina como pequenas escolhas podem impactar saúde e ambiente até 2050 -
How to TEK
Tem o Instagram inundado de posts de contas que não segue? Ponha as sugestões em pausa
Comentários