
Add to Cart
NVIDIA Scientific GPU Tesla A100 40GB Workstation Graphic Card
Para desbloquear as descobertas da próxima geração, os cientistas procuram simulações para entender melhor o mundo ao nosso redor.
NVIDIA Tesla A100 apresenta Tensor Cores de precisão dupla para oferecer o maior salto no desempenho de HPC desde a introdução de GPUs.Combinado com 80 GB da memória de GPU mais rápida, os pesquisadores podem reduzir uma simulação de precisão dupla de 10 horas para menos de quatro horas na NVIDIA Tesla A100.Os aplicativos HPC também podem aproveitar o TF32 para atingir um rendimento até 11 vezes maior para operações de multiplicação de matriz densa e precisão única.
Para os aplicativos HPC com os maiores conjuntos de dados, a memória adicional do A100 de 80 GB oferece um aumento de produtividade de até 2 vezes com o Quantum Espresso, uma simulação de materiais.Essa enorme memória e largura de banda de memória sem precedentes tornam o A100 80 GB a plataforma ideal para cargas de trabalho de última geração.
O A100 apresenta recursos inovadores para otimizar as cargas de trabalho de inferência.Ele acelera uma gama completa de precisão, de FP32 a INT4.A tecnologia Multi-Instance GPU (MIG) permite que várias redes operem simultaneamente em um único A100 para uma utilização ideal dos recursos de computação.E o suporte de esparsidade estrutural oferece até 2X mais desempenho além dos outros ganhos de desempenho de inferência do A100.
Em modelos de IA de conversação de última geração, como o BERT, o A100 acelera a taxa de transferência de inferência em até 249 vezes em CPUs.
Nos modelos mais complexos com restrição de tamanho de lote, como RNN-T para reconhecimento automático de fala, a maior capacidade de memória do A100 80GB dobra o tamanho de cada MIG e oferece uma taxa de transferência até 1,25 vezes maior em relação ao A100 40GB.
O desempenho líder de mercado da NVIDIA foi demonstrado no MLPerf Inference.O A100 oferece 20 vezes mais desempenho para ampliar ainda mais essa liderança.
NVIDIA A100 para PCIe | |
Arquitetura da GPU |
NVIDIA Ampère |
Pico FP64 | 9,7 TF |
Núcleo tensor FP64 de pico | 19,5 TF |
Pico FP32 | 19,5 TF |
Núcleo tensor de pico TF32 | 156 TF |312 TF* |
Núcleo tensor de pico BFLOAT16 | 312 TF |624 TF* |
Núcleo Tensor Pico FP16 | 312 TF |624 TF* |
Núcleo Tensor Pico INT8 | 624 TOPS |1.248 TOPS* |
Núcleo Tensor Pico INT4 | 1.248 TOPS |2.496 TOPS* |
Memória da GPU | 40 GB |
Largura de banda da memória da GPU | 1.555 GB/s |
Interconectar | PCIe Gen4 64 GB/s |
GPUs de várias instâncias | Vários tamanhos de instância com até 7 MIGs a 5 GB |
Fator de forma | PCIe |
Potência máxima TDP |
250W |
Desempenho entregue dos principais aplicativos |
90% |
A100 com MIG maximiza a utilização da infraestrutura acelerada por GPU.Com o MIG, uma GPU A100 pode ser particionada em até sete instâncias independentes, dando a vários usuários acesso à aceleração da GPU.Com o A100 40 GB, cada instância MIG pode ser alocada em até 5 GB e, com o aumento da capacidade de memória do A100 80 GB, esse tamanho é dobrado para 10 GB.
O MIG funciona com Kubernetes, contêineres e virtualização de servidor baseada em hipervisor.O MIG permite que os gerentes de infraestrutura ofereçam uma GPU do tamanho certo com qualidade de serviço (QoS) garantida para cada trabalho, estendendo o alcance dos recursos de computação acelerada a todos os usuários.