모든 워크로드를 위한 궁극의 성능

NVIDIA A100

NVIDIA A100 Tensor 코어 GPU는 AI, 데이터 분석 및 HPC(high-performance computing) 를 위한 모든 규모의 유례 없는 가속화를 제공하여 세계에서 가장 까다로운 컴퓨팅 문제를 처리합니다. NVIDIA 데이터센터 플랫폼의 엔진에 해당하는 A100은 NVIDIA MIG(Multi-Instance GPU) 기술을 통해 수천 개 GPU로 효율적으로 확장하고
7개 GPU 인스턴스로 분할하여 모든 규모의 워크로드를가속화합니다.

또한, 3세대 Tensor 코어는 다양한 워크로드를 위해 모든 정밀도를 가속화하여 인사이트 확보 시간과 시장 출시 시간을 단축합니다.

제품 사양

NVIDIA A100
SPECIFICATIONSNVIDIA A100 for HGX™NVIDIA A100 for PCIe
GPU ArchitectureNVIDIA Ampere
Double-Precision PerformanceFP64: 9.7 TFLOPS
FP64 Tensor Core: 19.5 TFLOPS
Single-Precision PerformanceFP32: 19.5 TFLOPS
TF32: 156 TFLOPS | 312 TFLOPS*
Half-Precision Performance312 TFLOPS | 624 TFLOPS*
Bfloat16312 TFLOPS | 624 TFLOPS*
Integer PerformanceINT8: 624 TOPS | 1,248 TOPS*
INT4: 1,248 TOPS | 2,496 TOPS*
GPU Memory40 GB HBM2
Memory Bandwidth1.6 TB/sec
Error-Correcting CodeYes
Interconnect InterfacePCIe Gen4: 64 GB/ sec
Third generation NVIDIA® NVLink®: 600 GB/sec**
PCIe Gen4: 64 GB/ sec
Third generation NVIDIA® NVLink®: 600 GB/sec**
Form Factor4/8 SXM4PCIe 4
Multi-Instance GPU (MIG)Up to 7 GPU instances
Max Power Consumption400 W250 W
Thermal SolutionPassive

* 희소성 포함
** 최대 2GPU에 대해 HGX A100 서버 보드를 통한 SXM GPU, NVLink Bridge를 통한 PCIe GPU
제 품문 의
top