NVIDIA A30 Tensor core GPU
아키텍처 Ampere
GPU 메모리 24GB HBM2
메모리 대역폭 최대 933 GB/s
FP32 성능 최대 10.3 TFLOPS
Tensor 성능 (TF32, sparsity 적용) 최대 165 TFLOPS
NVLink 대역폭 최대 600 GB/s (2-way)
PCIe 버전 Gen 4
TDP (전력) 165W
폼팩터 PCIe Dual-slot
주요 활용 분야 AI 추론 및 훈련, HPC, 데이터 분석, 클라우드 워크로드
멀티 인스턴스 GPU (MIG) 지원으로 1개의 GPU를 최대 4개의 논리 GPU로 분할 가능
NVIDIA Ampere Tensor Core 기반으로 sparsity 가속화 및 TF32 정밀도 지원
NVLink를 통한 고속 GPU 간 통신
에너지 효율성을 극대화한 165W TDP 설계
대형 모델의 inference + mid-size training에 최적화