NVIDIA lança GPU A100 com 80GB de memória voltada para supercomputação de IA
Créditos: Reprodução/NVIDIA

NVIDIA lança GPU A100 com 80GB de memória voltada para supercomputação de IA

Com 80GB de HBM2e, ela oferece largura de banda de memória de mais de 2 terabytes por segundo

A NVIDIA anunciou nesta semana o lançamento da GPU NVIDIA A100 com 80GB de memória para reforçar a plataforma de supercomputação de IA NVIDIA HGX. Com o dobro da memória da A100 original lançada em junho, ela fornece aos pesquisadores e engenheiros alta velocidade e desempenho para impulsionar a próxima onda de IA e avanços científicos.

23/06/2020 às 20:26
Notícia

Nvidia lança GPU A100 com PCIe 4.0 destinada para servidores

Hardware é baseado na arquitetura Ampere para a aceleração de IA e computação científica

De acordo com a NVIDIA, a nova GPU A100 com 80GB de HBM2e oferece largura de banda de memória de mais de 2 terabytes por segundo. Para fazer uma comparação, a largura de banda de memória do modelo com 40GB era de cerca de 1,555TB/s. A maior largura de banda de memória permite que a GPU A100 seja alimentada com dados mais rapidamente, permitindo que os pesquisadores acelerem suas aplicações ainda mais e assumam modelos e conjuntos de dados ainda maiores.

Com interface NVLink, a GPU possui TDP máximo de 400W e está disponível tanto nos sistemas NVIDIA DGX A100 como nos novos sistemas NVIDIA DGX Station A100, que chegarão ao mercado até o final deste ano. O sistema DGX Station A100 anunciado nesta semana pela NVIDIA suporta até quatro GPUs A100 com 80GB, totalizando 320GB de HBM2e.

NVIDIA lança GPU A100 com 80GB de memória voltada para supercomputação de IA
Nova GPU NVIDIA A100 com 80GB de HBM2e
(Divulgação/NVIDIA)

Projetada e construída com base nas capacidades diversas da GPU A100 com 40GB, a versão com 80GB é ideal para uma ampla variedade de aplicações com enormes requisitos de memória de dados. Para treinamento de inteligência artificial, modelos de sistemas de recomendação como o DLRM têm tabelas massivas representando bilhões de usuários e bilhões de produtos. A nova GPU NVIDIA A100 com 80GB oferece uma aceleração de até 3x para que as empresas possam treinar rapidamente esses modelos para fornecer recomendações altamente precisas.


NVIDIA DGX Station A100
(Divulgação/NVIDIA)

O A100 com 80GB também permite o treinamento dos modelos maiores com mais parâmetros adequados dentro de um único servidor alimentado pela plataforma HGX, como o GPT-2, um modelo de processamento de linguagem natural com capacidade de texto gerativo sobre-humana. 

Continua após a publicidade

Já a tecnologia Multi-instance GPU (MIG) permite que a A100 com 80GB seja particionada em múltiplas instâncias de GPU, cada uma com 10GB de memória. Isso possibilita o isolamento de hardware seguro e maximiza a utilização de GPU para uma variedade de cargas de trabalho menores, por exemplo.

Empresas como Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta e Supermicro devem começar a oferecer sistemas construídos usando placas-base integradas HGX A100 em configurações com quatro ou oito GPUs A100 com 80GB de memória a partir do primeiro semestre de 2021.

Via: TechPowerUp Fonte: NVIDIA
User img

Fabio Rosolen

Semana BLACK FRIDAY: 7 DICAS para COMPRAR MUITO BARATO na INTERNET!

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.