Índice do Artigo

NotĂ­cias

Nvidia anuncia Tesla V100 PCIe baseada em Volta com 5120 nĂșcleos CUDA e 16GB HBM2

A Nvidia anunciou sua nova placa de vídeo Tesla V100 PCIe baseada em arquitetura Volta, contando com 5120 núcleos CUDA e 16GB de memórias HBM2. A placa é destinada à aplicações profissionais de alta demanda, contando com HBM2 de 4096-bit que pode oferecer 900GB/s de largura de banda. 

Surgem primeiras informações sobre GPU da Nvidia para mineração de criptomoedas

A GPU Volta presente na Tesla V100 é feita no processo 12nm FinFet pela TSMC. Ela conta com 21 bilhões de transistores, 80 SMs, 40 TPCs e clocks de 1370/1455MHz em base e boost clock, respectivamente. A placa dual-slot não suporta NVLINK, mas diferente das versões SXM2, ela pode se conectar à uma variedade maior de placas-mãe com a conexão PCIe.

AMD anuncia linha Radeon Instinct; modelo Instinct MI25 é baseado em Vega e tem 16GB HBM2

O hardware será lançado ainda em 2017, sem data específica, na cor preta com detalhes em dourado. O preço da Tesla V100 PCIe ainda não foi anunciado, mas o site eteknix especula algo em torno dos £10,000 (aprox. R$ 37.000 ).

“A Tesla V100 é voltada pra deep learning, e nisso é o maior monstro que existe. Uma V100 sozinha faz 120 TFLOPS em deep learning.” – Alexandre Ziebert, marketing técnico da Nvidia

MSI anuncia a GeForce GTX 1080 Ti Lightning Z, que alcança clock de até 1721 MHz

Especificações Nvidia Tesla V100:
– Volta Architecture
– TSMC 12nm FFN Process
– 5120 CUDA Cores
– 640 Tensor Cores
– 1370MHz Boost Clock
– 1.75Gbps HBM2 Memory Clock
– 4096-bit Memory Bus Width
– 900GB/sec Memory Bandwidth
– 16GB VRAM
– 6MB L2 Cache
– 28 TFLOPS Half Precision
– 14 TFLOPS Single Precision
– 7 TFLOPS (half rate) Double Precision
– 112 TFLOPS Tensor Performance (Deep Learning)
– GV100 (815mm2) GPU
– 21 billion Transistor Count
– 250W TDP
– PCIe Form Factor
– Passive Cooling
via Tweak Town

Comparação AMD Radeon Instinct x Nvidia Volta V100
– Radeon Instinct MI25: FP16 @ 24.6 TFLOPs
– NVIDIA Volta V100 PCIe: FP16 @ 28 TFLOPs

– Radeon Instinct MI25: FP32 @ 12.3 TFLOPs 
– NVIDIA Volta V100 PCIe: FP32 @ 14 TFLOPs