O evento Google Cloud Next 2024 serviu de palco para novos anúncios da gigante tecnológica, sobretudo em torno da inteligência artificial. Um deles foi o seu novo processador Axion, criado para alimentar os computadores em centros de dados. O processador é o primeiro criado pela Google baseado na arquitetura Arm, nomeadamente o chip Neoverse V2. É claramente uma resposta da Google à Amazon e outras tecnológicas como a Intel e Nvidia, para a nova geração de centros de dados baseados em inteligência artificial.
O Axion promete uma performance entre as melhores ofertas da área, assim como energeticamente eficiente, estando disponível para os clientes da Google no final do ano. Desde 2015, a Google já lançou cinco gerações do Tensor Processing Unit (TPU) e em 2018 lançou o primeiro chip dedicado à codificação de vídeo (VCU), que concede aos servidores 33 vezes mais eficiência. Desde 2021 que a Google também investiu em processadores Tensor para smartphones, os SoCs que alimentam a sua linha Pixel.
A Google menciona que a nova geração do processador Axion, graças à tecnologia da arquitetura Arm, consegue um aumento de performance de 30% que outras propostas gerais de cloud igualmente baseados na mesma tecnologia. E até 50% de mais performance quando comparado com as mais recentes instâncias baseadas em x86, além de 60% energeticamente mais eficientes. A empresa diz que já começou a experimentar serviços como BigTable, Spanner, Bigquery, Blobstore, o Google Earth Engine e a plataforma de anúncios do YouTube.
A empresa diz que continua a fazer avanços significativos nas suas infraestruturas de computação para suportar os seus clientes. Por isso conta com outras tecnologias no seu portfólio, como o A3 Mega, uma solução da Nvidia baseado nos GPUs H100 Tensor Core, apontado por ter o dobro da largura de banda por GPU em comparação com outras instâncias A3. Este é direcionado a cargas de trabalho mais exigentes e a versão Confidential A3 permite maior integridade de dados confidenciais.
A mais recente plataforma de chips Nvidia Blackwell também vai ser integrado no Google Cloud no início de 2025, sendo introduzido em duas variantes, uma para treino e serviço convencional, a outra para treino de modelos de linguagem de grande escala.
Importante referir também o anúncio do TPU v5p, o acelerador de IA da Google, descrito como o mais poderoso, escalável e flexível para treino, em cerca de 4 vezes quando comparado com a sua geração anterior. A empresa diz que o uso do Google Kubernetes Engine cresceu mais de 900% no ano passado.
Outras tecnologias anunciadas solidificam a estratégia da Google em trazer a IA para mais próximo onde os dados estão a ser gerados e consumidos, em Edge, ambientes para o Google Sovereign Clouds e Cross-Cloud. Além disso, AI Anywhere está a ser distribuído pelo Google Distributed Cloud (GDC). Este sistema permite a escolha do ambiente, configuração e controlos perante as necessidades de cada organização. Dando o exemplo do operador francês Orange, que opera em 26 países, os dados locais devem ser mantidos em cada um. A tecnologia tira partido da IA na GDC, melhorando o desempenho da rede e a experiência do cliente.
Pergunta do Dia
Em destaque
-
Multimédia
Imagens de satélite mostram impacto das cheias em Espanha e ajudam a salvar vidas -
App do dia
O seu telefone é “esperto” o suficiente? A app Geekbench AI quer servir como tira-teimas -
Site do dia
Tem boa capacidade de observação? Então tente encontrar as personagens em i-Spy -
How to TEK
4 dicas rápidas para tirar partido do iPad e tornar-se mais produtivo
Comentários