Tecnologia Co. de Plink AI do Pequim, Ltd

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Dos Estados-activa
3 Anos
Casa / Produtos / Nvidia GPU Server /

AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing

Contate
Tecnologia Co. de Plink AI do Pequim, Ltd
Cidade:beijing
Província / Estado:beijing
País / Região:china
Pessoa de contato:MsCindy
Contate

AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing

Pergunte o preço mais recente
Número do modelo :NVIDIA A100
Lugar de origem :CHINA
Quantidade Mínima de Pedido :1pcs
Termos de pagamento :L/C, D/A, D/P, T/T
capacidade de fornecimento :20PCS
Tempo de entrega :15-30 dias de palavras
Detalhes da embalagem :4,4" A x 7,9" C Slot Único
Nome :AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing
Palavra-chave :AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing
Modelo :NVIDIA A100
Arquitetura da GPU :NVIDIA Ampère
Pico FP64 :9,7 TF
Núcleo tensor FP64 de pico :19,5 TF
Pico FP32 :19,5 TF
Núcleo tensor de pico TF32 :156 TF | 312 TF*
Núcleo tensor de pico BFLOAT16 :312 TF | 624 TF*
Núcleo Tensor Pico FP16 :312 TF | 624 TF*
Núcleo tensor INT8 de pico :624 TOPS | 1.248 TOPS*
Núcleo Tensor Pico INT4 :1.248 TOPS | 2.496 TOPS*
memória da GPU :40 GB
Largura de banda da memória da GPU :1.555 GB/s
Fator de forma :PCIe
more
Contate

Add to Cart

Encontre vídeos semelhantes
Ver descrição do produto

AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing

NVIDIA A100

A GPU NVIDIA A100 Tensor Core oferece aceleração sem precedentes em todas as escalas para IA, análise de dados e computação de alto desempenho (HPC) para enfrentar os desafios de computação mais difíceis do mundo.

Acelerando o Trabalho Mais Importante do Nosso Tempo

A GPU NVIDIA A100 Tensor Core oferece aceleração sem precedentes em todas as escalas para IA, análise de dados e computação de alto desempenho (HPC) para enfrentar os desafios de computação mais difíceis do mundo.Como o mecanismo da plataforma de data center da NVIDIA, o A100 pode ser dimensionado com eficiência para milhares de GPUs ou, com a tecnologia NVIDIA Multi-Instance GPU (MIG), ser particionado em sete instâncias de GPU para acelerar cargas de trabalho de todos os tamanhos.E os Tensor Cores de terceira geração aceleram cada precisão para diversas cargas de trabalho, acelerando o tempo de percepção e o tempo de lançamento no mercado.

A plataforma de data center de IA e HPC mais poderosa de ponta a ponta

O A100 faz parte da solução completa de data center da NVIDIA que incorpora blocos de construção em hardware, rede, software, bibliotecas e modelos e aplicativos de IA otimizados da NGC™.Representando a mais poderosa plataforma de IA e HPC de ponta a ponta para data centers, ela permite que os pesquisadores forneçam resultados do mundo real e implementem soluções em produção em escala.

AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing

Análise de dados de alto desempenho

Os cientistas de dados precisam ser capazes de analisar, visualizar e transformar grandes conjuntos de dados em insights.Mas as soluções de escalabilidade muitas vezes são sobrecarregadas por conjuntos de dados espalhados por vários servidores.

Servidores acelerados com A100 fornecem a potência de computação necessária, juntamente com memória massiva, mais de 2 TB/s de largura de banda de memória e escalabilidade com NVIDIA®NVLink®e NVSwitch™, — para lidar com essas cargas de trabalho.Combinado com InfiniBand, NVIDIA Magnum IO™ e o conjunto RAPIDS™ de bibliotecas de código aberto, incluindo o acelerador RAPIDS para Apache Spark para análise de dados acelerada por GPU, a plataforma de data center da NVIDIA acelera essas enormes cargas de trabalho em níveis sem precedentes de desempenho e eficiência.

Em um benchmark de análise de big data, o A100 80GB forneceu insights com taxa de transferência 83X maior do que as CPUs e um aumento de 2X em relação ao A100 40GB, tornando-o ideal para cargas de trabalho emergentes com tamanhos de conjuntos de dados em explosão.

Especificações Técnicas NVIDIA A100

NVIDIA A100 para PCIe
Arquitetura da GPU

NVIDIA Ampère

Pico FP64 9,7 TF
Núcleo tensor FP64 de pico 19,5 TF
Pico FP32 19,5 TF
Núcleo tensor de pico TF32 156 TF |312 TF*
Núcleo tensor de pico BFLOAT16 312 TF |624 TF*
Núcleo Tensor Pico FP16 312 TF |624 TF*
Núcleo Tensor Pico INT8 624 TOPS |1.248 TOPS*
Núcleo Tensor Pico INT4 1.248 TOPS |2.496 TOPS*
Memória da GPU 40GB
Largura de banda da memória da GPU 1.555 GB/s
Interconectar PCIe Gen4 64 GB/s
GPUs de várias instâncias Vários tamanhos de instância com até 7 MIGs a 5 GB
Fator de forma PCIe

Potência máxima TDP

250 W

Desempenho entregue dos principais aplicativos

90%

NVIDIA A100

O principal produto da plataforma de data center da NVIDIA para aprendizado profundo, HPC e análise de dados.

A plataforma acelera mais de 700 aplicativos HPC e todas as principais estruturas de aprendizado profundo.Está disponível em todos os lugares, de desktops a servidores e serviços em nuvem, oferecendo ganhos dramáticos de desempenho e oportunidades de economia de custos.

AI Data Center Tesla Tensor Core Nvidia GPU Server A100 80GB Video Graphic Card Computing

Inquiry Cart 0