

Add to Cart
A GPU NVIDIA A100 Tensor Core oferece aceleraço sem precedentes em todas as escalas para IA, análise de dados e computaço de alto desempenho (HPC) para enfrentar os desafios de computaço mais difíceis do mundo.
A GPU NVIDIA A100 Tensor Core oferece aceleraço sem precedentes em todas as escalas para IA, análise de dados e computaço de alto desempenho (HPC) para enfrentar os desafios de computaço mais difíceis do mundo.Como o mecanismo da plataforma de data center da NVIDIA, o A100 pode ser dimensionado com eficiência para milhares de GPUs ou, com a tecnologia NVIDIA Multi-Instance GPU (MIG), ser particionado em sete instncias de GPU para acelerar cargas de trabalho de todos os tamanhos.E os Tensor Cores de terceira geraço aceleram cada preciso para diversas cargas de trabalho, acelerando o tempo de percepço e o tempo de lançamento no mercado.
O A100 faz parte da soluço completa de data center da NVIDIA que incorpora blocos de construço em hardware, rede, software, bibliotecas e modelos e aplicativos de IA otimizados da NGC™.Representando a mais poderosa plataforma de IA e HPC de ponta a ponta para data centers, ela permite que os pesquisadores forneçam resultados do mundo real e implementem soluções em produço em escala.
Os cientistas de dados precisam ser capazes de analisar, visualizar e transformar grandes conjuntos de dados em insights.Mas as soluções de escalabilidade muitas vezes so sobrecarregadas por conjuntos de dados espalhados por vários servidores.
Servidores acelerados com A100 fornecem a potência de computaço necessária, juntamente com memória massiva, mais de 2 TB/s de largura de banda de memória e escalabilidade com NVIDIA®NVLink®e NVSwitch™, — para lidar com essas cargas de trabalho.Combinado com InfiniBand, NVIDIA Magnum IO™ e o conjunto RAPIDS™ de bibliotecas de código aberto, incluindo o acelerador RAPIDS para Apache Spark para análise de dados acelerada por GPU, a plataforma de data center da NVIDIA acelera essas enormes cargas de trabalho em níveis sem precedentes de desempenho e eficiência.
Em um benchmark de análise de big data, o A100 80GB forneceu insights com taxa de transferência 83X maior do que as CPUs e um aumento de 2X em relaço ao A100 40GB, tornando-o ideal para cargas de trabalho emergentes com tamanhos de conjuntos de dados em exploso.
NVIDIA A100 para PCIe | |
Arquitetura da GPU | NVIDIA Ampère |
Pico FP64 | 9,7 TF |
Núcleo tensor FP64 de pico | 19,5 TF |
Pico FP32 | 19,5 TF |
Núcleo tensor de pico TF32 | 156 TF |312 TF* |
Núcleo tensor de pico BFLOAT16 | 312 TF |624 TF* |
Núcleo Tensor Pico FP16 | 312 TF |624 TF* |
Núcleo Tensor Pico INT8 | 624 TOPS |1.248 TOPS* |
Núcleo Tensor Pico INT4 | 1.248 TOPS |2.496 TOPS* |
Memória da GPU | 40GB |
Largura de banda da memória da GPU | 1.555 GB/s |
Interconectar | PCIe Gen4 64 GB/s |
GPUs de várias instncias | Vários tamanhos de instncia com até 7 MIGs a 5 GB |
Fator de forma | PCIe |
Potência máxima TDP | 250 W |
Desempenho entregue dos principais aplicativos | 90% |
O principal produto da plataforma de data center da NVIDIA para aprendizado profundo, HPC e análise de dados.
A plataforma acelera mais de 700 aplicativos HPC e todas as principais estruturas de aprendizado profundo.Está disponível em todos os lugares, de desktops a servidores e serviços em nuvem, oferecendo ganhos dramáticos de desempenho e oportunidades de economia de custos.