É mais rápido e com mais memória, o novo chip para supercomputadores da Nvidia foi desenhado para acelerar a computação em torno da inteligência artificial generativa e modelos de linguagem de grande capacidade (LLM), semelhantes ao GPT-4 da OpenAI. Trata-se do chip HGX H200 Tensor Core GPU, baseado na arquitetura Nvidia Hopper, capaz de lidar com quantidades massivas de dados para IA generativa, assim como aumentar a capacidade de performance computacional científica em cargas de trabalho HPC.
Este é descrito pela fabricante como o primeiro GPU a oferecer memórias HBM3e que aceleram a IA generativa. O H200 entrega 141 GB de memória a 4,8 Tb por segundo, quase duplicando a capacidade e 2,4X mais largura de banda que o seu antecessor, o Nvidia A100. O novo superchip promete um salto significativo tecnológico, sendo utilizado em centros de dados e supercomputadores.
Veja na galeria imagens do Nvidia GH200 Grace Hopper Superchip
A fabricante diz que o HGX H200 duplica a velocidade do modelo de linguagem Llama 2 da Meta. O chip está disponível em configurações de 4 e 8 direções e é retrocompatível com as configurações e software dos sistemas H100. E poderá ser utilizado em centros de dados presenciais, cloud, edge ou cloud híbrida.
A Amazon Web Services, Google Cloud, Azure e Oracle Cloud Infraestructure serão os primeiros serviços de cloud a serem atualizados com o H200, quando for lançado no segundo trimestre de 2024, seguindo-se a CoreWeave, Lambda e Vultr.
A configuração de oito direções do HGX H200 oferece cerca de 32 petaflops de computação FP8 de deep learning e 1,1 TB de memória agregada de banda larga para aplicações HPC e IA generativa. A arquitetura do superchip fica completa com o CPU Nvidia Grace baseado em Arm através da inferface NVLink-C2C.
De recordar que o Reino Unido já anunciou o investimento de 273 milhões de dólares para construir um novo supercomputador, o Isambard-AI, referido como 10 vezes mais rápido que o atual supercomputador mais avançado já em funcionamento. Este terá a capacidade para realizar mais de 200 triliões de cálculos por segundo.
O sistema está a ser construído pela HPE - Hewlett Packard Enterprise e vai integrar 5.448 superchips Nvidia GH200 Grace Hopper Superchips. A Nvidia refere que o sistema vai conseguir atingir mais de 21 exaflops de desempenho de IA, ou seja, mais de 21 quintiliões de FLOPs (operações de ponto flutuante por segundo) em aplicações de IA, como o treino de grandes modelos linguísticos.
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Wayther: uma nova app de previsões meteorológicas detalhadas para otimizar viagens -
Site do dia
Tetr.io é uma versão competitiva de Tetris e os adversários não dão tréguas -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários