
A atualização tem em conta um novo conjunto de testes concebidos para avaliar a velocidade do hardware usado em aplicações de inteligência artificial e o tempo de resposta aos utilizadores. O desempenho não é o único parâmetro importante que é avaliado no processo de implementação de soluções de IA e os sistemas também foram avaliados relativamente ao seu consumo de energia.
O consórcio realça que com a crescente adoção de modelos de linguagem de grande escala (LLMs, na sigla em inglês) torna-se cada vez mais crucial criar benchmarks “objetivos, justos e robustos”, que estejam disponíveis para toda a comunidade.
Segundo o MLCommons, a mais recente versão do benchmark MLPerf usa os modelos Llama 2, da Meta, e Stable Diffusion XL, da Stability AI, como base para as avaliações, que são divididas entre sistemas concebidos para Data Centers e sistemas desenvolvidos para outras aplicações.
No que respeita à primeira categoria, destaca-se um sistema que combina 8 GPUs Nvidia H200 com 2 CPUs Intel Xeon, seguindo-se outros sistemas baseados em GPUs H100 da Nvidia, avança o website IEEE Spectrum. Na categoria dedicada aos sistemas desenvolvidos para outras aplicações, um sistema com 2 GPUs Nvidia L40S e CPU Intel Xeon.
Pergunta do Dia
Em destaque
-
Multimédia
Xiaomi "ataca" Porsche e automóveis de alta cilindrada com o elétrico SU7 Ultra abaixo dos 70 mil euros -
App do dia
Mister Antonio: Salte entre planetas e resolva desafios para agradar a um gato muito exigente -
Site do dia
Tem uma montanha de tarefas pela frente? Esta extensão ajuda a manter tudo organizado a partir do browser -
How to TEK
Aumente a privacidade e “tape os ouvidos” ao seu smartphone
Comentários