Começou hoje o evento Google Search One, em que a gigante tecnológica apresenta novidades relativos a alguns dos seus produtos. O evento teve como base três focos principais: a sua ferramenta de pesquisa, o Google Mapas e a nova experiência de compras online através do Google.
Antecipando ao lançamento das novidades, o SAPO TEK esteve presente numa mesa redonda internacional, onde foram antecipadas as novidades. Rajan Patel, vice-presidente de engenharia da Google, salienta a missão da empresa em organizar a informação, para que seja útil para as pessoas a encontrarem mais facilmente e a utilizarem no seu dia-a-dia. Afirma ainda que a empresa continua empenhada em tornar a utilização mais intuitiva e implementada nos seus diversos produtos. Nos primeiros dias de pesquisa, tudo se resumia a texto, mas o uso de voz, vídeos ou imagens mostram como a Google tem evoluído o seu sistema para ser mais natural aos utilizadores.
Pesquisa e tradução evoluíram para o patamar da “naturalidade”
As pessoas fazem perguntas cada vez mais complexas à ferramenta de pesquisa e existe cada vez mais informação. Por isso, utiliza a IA para ajudar a desnovelar todos os pedidos, em múltiplas camadas de informação, para que as pessoas encontrem o que realmente procuram. Para tal, podem misturar texto com imagens ou vídeos, por exemplo, para encontrar o que desejam. O sistema Visual Search, introduzido na ferramenta Lens já gerou mais de 8 mil milhões de pesquisas por mês. Trata-se da ferramenta incluída na câmara fotográfica que reconhece elementos em tempo real, sejam espécies de flores ou outros objetos banais.
A empresa tem vindo a criar uma pesquisa mais natural e introduziu o sistema de pesquisa misto com imagem e texto para ajudar no Google Lens. O sistema multisearch, apenas disponível atualmente em inglês, vai chegar a mais de 70 línguas nos próximos meses. Esta ferramenta permite usar uma imagem ou captar uma foto de algo e introduzir keywords para completar a pesquisa.
Veja na galeria imagens das novas funcionalidades da Pesquisa e Mapas
E o multi search Find Near Me, permite aos utilizadores não só pesquisar algo, mas aquilo que está perto de si. Para já, chega ao mercado dos Estados Unidos nos próximos meses.
Rajan Patel salientou ainda a capacidade que o Google Lens tem na ajuda a quebrar barreiras linguísticas, destacando a possibilidade de fazer traduções com a ferramenta sem perder o respetivo contexto. Afirma que a utilização da ferramenta para traduzir imagens já chegou aos mil milhões de utilizações por mês em mais de 100 línguas. Na prática, o sistema pode ser utilizado para traduzir menus, placas e sinais das lojas ou mesmo documentos, mesmo em línguas que não entendem.
A Google salienta que o contexto é sempre muito importante, ou seja, na tradução do texto, a IA identifica e analisa as imagens visuais para ajudar a oferecer a informação correta aos seus utilizadores. E os resultados já não se limitam a colocar “etiquetas” traduzidas em cima do texto original. Mesmo em imagens mais complexas, o tradutor apaga a mensagem original e reconstrói-a ao pixel através de inteligência artificial com o texto traduzido para o utilizador. Essa tecnologia é criada através de um sistema de machine learning que a Google chama de Generative Adversarial Networks (GANs), que também está por trás do Magic Eraser do Pixel. A Google diz que otimizou o modelo de machine learning devolvendo resultados em cerca de 100 milissegundos, menos tempo que o piscar de olho. Esta experiência melhorada vai chegar ao mercado global no final do ano ao Visual Search Lens AR Translate.
Ainda no que diz respeito ao Visual Search, a começar no dia 28 de setembro em iOS, a Google vai introduzir atalhos, capacidade de traduzir com a câmara e outros elementos introduzidos na barra de pesquisa.
Também para explorar a informação do mundo, torna-se mais fácil de fazer perguntas. A Google promete dessa forma um sistema mais útil e fácil de sugestões de keywords durante as pesquisas ou perguntas feitas ao sistema pelas pessoas. Quanto mais completa a questão, mais eficaz serão as respostas. A informação e conteúdos produzidos por criadores também pode ser englobado nas respostas das pesquisas. A barra de sugestões, por baixo da barra de pesquisa, é dinâmica, filtrando rapidamente os tópicos da pesquisa, sejam locais, vídeos, mapas, etc. O que importa para a Google são as fontes credíveis, e não o tipo de conteúdo, pois podem ser imagens, vídeos, websites, etc.
Se pesquisar por uma cidade, pode receber sugestões culturais ou de locais de importância para ajudar os utilizadores a encontrar as melhores informações, de forma mais natural. Esta novidade chega nos próximos meses, mas para já, apenas em inglês.
Google Mapas “dá a mão” ao utilizador para nunca se perder
Relativamente aos Mapas, também estão a chegar novidades interessantes à aplicação de navegação. Fazendo um balanço, Mirian Daniel vice-presidente do Google Maps, diz que há mais de 50 milhões de atualizações diariamente, fonte dos utilizadores que contribuem para melhorar as informações úteis para outros.
A Google pretende tornar o mapa gráfico numa nova experiência mais visual. A primeira nova funcionalidade chama-se Neighborhood Vibe, em que ao selecionar um bairro, rapidamente aparecem no mapa os principais locais de visita, sejam galerias de arte, museus ou cafés e coisas a acontecer. A ferramenta utiliza um sistema de IA com a informação local dos utilizadores, juntamente com os dados de satélite da área. A Google diz que são destacados os locais mais populares e não aqueles que são os mais ricos, por exemplo. A ferramenta chega globalmente à aplicação nos próximos meses.
Outra funcionalidade é a vista aérea dos Pontos de Interesse. É uma evolução do Street View, com uma mostragem mais detalhada de monumentos e outros pontos importantes. Para já há 250 elementos tridimensionais que vão chegar no dia 28 de setembro, incluindo a Acrópoles, Torre Eiffel ou a Torre de Tóquio. A Google diz que todos os dados são personalizados para cada caso e não gerados automaticamente, para oferecer a experiência mais eficiente da tecnologia. A empresa explica que não tem planos de monetização desta ferramenta, tal como vender “marcos” a empresas, mas sim oferecer a melhor experiência aos utilizadores que visitam as cidades.
O Immersive View permite planear um passeio ou a visita de um restaurante, permitindo ver o trânsito, o estado do tempo ou a quantidade de pessoas, a determinada hora do dia, utilizando modelos de IA preditivos para ajudar os utilizadores a anteciparem as deslocações a determinados locais. Para já apenas algumas cidades como Londres, Los Angeles ou Nova Iorque vão receber esta funcionalidade.
Já o Live View é uma nova forma de navegação em realidade aumentada, garantindo uma experiência na primeira pessoa, cruzando a informação do mapa com aquilo que a câmara capta. E pode fazer uma pesquisa diretamente do Live View, para procurar, por exemplo, um multibanco e obter outras informações úteis em tempo real. Também foram escolhidas algumas cidades para o seu lançamento, previsto para o próximo mês.
Depois do lançamento do Eco-friendly routing nos Estados Unidos, Canadá e Europa, mais de meio milhão de metros cúbicos de carbono foram poupados na atmosfera, disse a tecnológica. Os developers podem aceder agora à aplicação para expandir outras necessidades. Está prevista uma versão preview a ser lançada no final do ano.
Google não é um Marketplace mas pretende continuar a oferecer as melhores ferramentas para fazer compras online
Por fim, há novas funcionalidades para os utilizadores que fazem compras no Google. Matt Madrigal, vice-presidente de merchandising, refere que a empresa não é uma loja ou um Marketplace, mas oferece ferramentas para criar um ecossistema de compras online para todos os intervenientes. Há mais de mil milhões de pessoas a fazer compras com a Google diariamente, disse Matt Madrigal. A empresa promete uma experiência mais intuitiva e divertida para os utilizadores. Uma das novidades, disponível no final do ano nos Estados Unidos, é a pesquisa de modelos 3D de calçado, oferecendo aos utilizadores uma nova forma de ver o que compra. O SAPO TEK perguntou se o sistema de modelos 3D eram exclusivos para calçado ou se estava previsto chegar a outros itens. Matt Madrigal disse que já há produtos para os lares, chegando agora ao calçado, mas há mais categorias previstas para o futuro.
Os modelos 3D pretendem substituir as dezenas de imagens que por vezes são necessárias para descrever os produtos. O sistema de IA gera automaticamente os modelos 3D a partir das fotos 2D. As informações mais profundas dos produtos são agora oferecidas no chamado Buying Guide, para ajudar a complementar as informações. Também na pesquisa de produtos vai haver os filtros dinâmicos, que se adaptam aos produtos. Se pesquisar uma camisa, vai ter sugestões de cor, tipo de mangas, tecidos, etc.
Pergunta do Dia
Em destaque
-
Multimédia
The Game Awards: Astro Bot conquistou quatro prémios incluindo Jogo do Ano -
Site do dia
Estamos sozinhos no Universo? Pergunta foi a base do projeto SETI há 40 anos -
App do dia
Task Kitchen: a app que transforma listas de tarefas em agendas eficientes -
How to TEK
Mantenha as apps e jogos Android atualizados para evitar vulnerabilidades
Comentários