HBM2 Memory A30 24GB Nvidia Ampere Data Center GPU para computação científica

Número do modelo:NVIDIA A30
Lugar de origem:CHINA
Quantidade Mínima de Pedido:1pcs
Termos de pagamento:L/C, D/A, D/P, T/T
capacidade de fornecimento:20PCS
Tempo de entrega:15-30 dias de palavras
Contate

Add to Cart

Fornecedor verificado
Beijing Beijing China
Endereço: D1205, construção de Jinyu Jiahua, rua de Shangdi ó, distrito de Haidian, Pequim 100085, P.R.China
Fornecedor do último login vezes: No 25 Horas
Detalhes do produto Perfil da empresa
Detalhes do produto

HBM2 Memory A30 24GB Nvidia Ampere Data Center GPU para computaço científica

NVIDIA A30GPU do centro de dados

NVIDIA Ampère A30GPU do centro de dados

Aceleraço de computaço versátil para servidores corporativos convencionais.

Inferência de IA e computaço convencional para todas as empresas


Traga desempenho acelerado para todas as cargas de trabalho corporativas com as GPUs NVIDIA A30 Tensor Core.Com a arquitetura NVIDIA Ampere Tensor Cores e Multi-Instance GPU (MIG), ele oferece acelerações seguras em diversas cargas de trabalho, incluindo inferência de IA em escala e aplicativos de computaço de alto desempenho (HPC).Combinando largura de banda de memória rápida e baixo consumo de energia em um fator de forma PCIe – ideal para servidores convencionais – o A30 permite um data center elástico e oferece o máximo valor para as empresas.



Especificações técnicas da NVIDIA A30 Data Center GPU


Arquitetura da GPU

NVIDIA Ampère

FP64

5,2 teraFLOPS

Núcleo Tensor FP64

10,3 teraFLOPS

FP32

10,3 teraFLOPS

Núcleo tensor TF32

82 teraFLOPS |165 teraFLOPS*

Núcleo tensor BFLOAT16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor FP16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor INT8

330 TOPS |661 TOPS*

Núcleo tensor INT4

661 TOPS |1321 TOPS*

Mecanismos de mídia

1 acelerador óptico de fluxo (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)

memória da GPU

24GB HBM2

Largura de banda da memória da GPU

933 GB/s

Interconectar

PCIe Gen4: 64 GB/s

Potência máxima de design térmico (TDP)

165 W

Fator de forma

Slot duplo, altura total, comprimento total (FHFL)

GPU de várias instncias (MIG)

4 instncias de GPU a 6 GB cada
2 instncias de GPU a 12 GB cada
1 instncia de GPU @ 24 GB

Suporte de software de GPU virtual (vGPU)

NVIDIA AI Enterprise para VMware
Servidor de computaço virtual NVIDIA



Computaço de alto desempenho

Os cientistas de dados precisam ser capazes de analisar, visualizar e transformar grandes conjuntos de dados em insights.Mas as soluções de escalabilidade muitas vezes so sobrecarregadas por conjuntos de dados espalhados por vários servidores.


Os servidores acelerados com A30 fornecem o poder de computaço necessário — junto com grande memória HBM2, 933 GB/s de largura de banda de memória e escalabilidade com NVLink — para lidar com essas cargas de trabalho.Combinada com NVIDIA InfiniBand, NVIDIA Magnum IO e o conjunto RAPIDS™ de bibliotecas de código aberto, incluindo o acelerador RAPIDS para Apache Spark, a plataforma de data center da NVIDIA acelera essas enormes cargas de trabalho em níveis sem precedentes de desempenho e eficiência.



China HBM2 Memory A30 24GB Nvidia Ampere Data Center GPU para computação científica supplier

HBM2 Memory A30 24GB Nvidia Ampere Data Center GPU para computação científica

Inquiry Cart 0