Tecnologia Co. de Plink AI do Pequim, Ltd

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Dos Estados-activa
3 Anos
Casa / Produtos / Nvidia GPU Server /

Solução de data center de computação profissional Nvidia Ampere A30 GPU

Contate
Tecnologia Co. de Plink AI do Pequim, Ltd
Cidade:beijing
Província / Estado:beijing
País / Região:china
Pessoa de contato:MsCindy
Contate

Solução de data center de computação profissional Nvidia Ampere A30 GPU

Pergunte o preço mais recente
Número do modelo :NVIDIA A30
Lugar de origem :CHINA
Quantidade Mínima de Pedido :1pcs
Termos de pagamento :L/C, D/A, D/P, T/T
capacidade de fornecimento :20PCS
Tempo de entrega :15-30 dias de palavras
Detalhes da embalagem :4,4" A x 7,9" C Slot Único
NOME :Solução de computação profissional de Nvidia Ampere A30 GPU Data Center
Palavra-chave :Solução de computação profissional de Nvidia Ampere A30 GPU Data Center
Modelo :NVIDIA A30
FP64 :teraFLOPS 5,2
Núcleo do Tensor FP64 :teraFLOPS 10,3
FP32 :0,3 teraFLOPS
Memória de GPU :24GB HBM2
Largura de banda da memória de GPU :933GB/s
Fatoras de formulários :Duplo-entalhe, completo-altura, completo (FHFL)
Poder térmico máximo do projeto (TDP) :165W
Núcleo do Tensor FP16 :teraFLOPS 165 | teraFLOPS* 330
Núcleo do Tensor INT8 :330 PARTES SUPERIORES | 661 TOPS*
Interconexão :PCIe Gen4: 64GB/s
more
Contate

Add to Cart

Encontre vídeos semelhantes
Ver descrição do produto

Solução de data center de computação profissional Nvidia Ampere A30 GPU

GPUSolução de Data CenterPara Computação Científica
NVIDIA A30Solução de Data Center

A solução de data center para TI moderna

A arquitetura NVIDIA Ampere faz parte da plataforma unificada NVIDIA EGX™, incorporando blocos de construção em hardware, rede, software, bibliotecas e modelos e aplicativos de IA otimizados do catálogo NVIDIA NGC™.Representando a mais poderosa plataforma de IA e HPC de ponta a ponta para data centers, ela permite que os pesquisadores forneçam rapidamente resultados do mundo real e implementem soluções em produção em escala.

Inferência de aprendizado profundo


A NVIDIA Tesla A30 utiliza recursos inovadores para otimizar as cargas de trabalho de inferência.Ele acelera uma gama completa de precisões, de FP64 a TF32 e INT4.Com suporte para até quatro MIGs por GPU, o A30 permite que várias redes operem simultaneamente em partições de hardware seguras com qualidade de serviço (QoS) garantida.E o suporte de esparsidade estrutural oferece até 2X mais desempenho além dos outros ganhos de desempenho de inferência do A30.

O desempenho de IA líder de mercado da NVIDIA foi demonstrado no MLPerf Inference.Combinado com o NVIDIA Triton™ Inference Server, que facilmente implementa IA em escala, o NVIDIA Tesla A30 traz esse desempenho inovador para todas as empresas.


Solução de data center de computação profissional Nvidia Ampere A30 GPU

NVIDIA A30Solução de Data Center

Arquitetura GPU NVIDIA Ampere

Memória HBM2 de 24 GB

máx.Consumo de energia: 165W

Ônibus de Interconexão:
PCIe Gen. 4: 64 GB/s
3º NVLink: 200 GB/s

Solução Térmica: Passiva

GPU de várias instâncias (MIG):
4 instâncias de GPU a 6 GB cada
2 instâncias de GPU a 12 GB cada
1 instância de GPU @ 24 GB

Suporte de software de GPU virtual (vGPU)



Solução de data center de computação profissional Nvidia Ampere A30 GPU

Especificações técnicas da solução NVIDIA A30 Data Center

Arquitetura da GPU

NVIDIA Ampère

FP64

5,2 teraFLOPS

Núcleo Tensor FP64

10,3 teraFLOPS

FP32

10,3 teraFLOPS

Núcleo tensor TF32

82 teraFLOPS |165 teraFLOPS*

Núcleo tensor BFLOAT16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor FP16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor INT8

330 TOPS |661 TOPS*

Núcleo tensor INT4

661 TOPS |1321 TOPS*

Mecanismos de mídia

1 acelerador óptico de fluxo (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)

memória da GPU

24GB HBM2

Largura de banda da memória da GPU

933 GB/s

Interconectar

PCIe Gen4: 64 GB/s

Potência máxima de design térmico (TDP)

165 W

Fator de forma

Slot duplo, altura total, comprimento total (FHFL)

GPU de várias instâncias (MIG)

4 instâncias de GPU a 6 GB cada
2 instâncias de GPU a 12 GB cada
1 instância de GPU @ 24 GB

Suporte de software de GPU virtual (vGPU)

NVIDIA AI Enterprise para VMware
Servidor de computação virtual NVIDIA

Inquiry Cart 0