Research Hub

대학 자원

대학 인프라와 자원을 공유해 공동 연구와 기술 활용을 지원합니다.

Loading...

공동활용 연구장비

20201014000000249778.jpg

최신 GPU 아키텍처 기반의 초고성능 딥러닝 분석서버

상담·문의하기

Deep Learning Analysis Server

  • 모델명 DGX A100
  • 제조사 Nvidia
  • 장비용도 교육
  • 장비구분 데이터처리장비 > 하드웨어 > 고성능컴퓨터

상세정보

구축일자 2020-09-24
납품업체 Nvidia
위치 광주광역시 북구 첨단과기로 123 광주과학기술원 전기전자컴퓨터공학C동 F1 층 108 호
구성및성능 ○ GPU성능
- NVIDIA A100 40GB SXM4
- 5 petaFLOPS AI
- 10 petaOPS INT8
- 6x NVIDIA NVSwitches (Total 4.8TB/s Bi-directional Bandwidth)
- 12x NVLinks Per GPU (600GB/s Per GPU to GPU Bi-directional Bandwidth)

- CPU : 2x AMD EPYC 7742 (64-Core)
2.25 GHz (base), 3.4 GHz (max boost)
- Memory : 1TB (16x 64GB DDR4 ECC/REG)
- Storage1 : 2x 1.92TB M.2 NVME SSDs Raid 1 (OS)
Storage2 : 4x 3.84TB U.2 NVME SSDs Raid 0 (Cache)
- Networking : 1x 1G RJ45 / 1x 1G RJ45 BMC
Networking (Storage) : 1x Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200Gb/s Ethernet
Networking (Cluster) : 8x Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand
- System Weight : 271 lbs / 123 kg
- Dimension : 6U / 897.2 D x 482.3 W x 264.0 H (mm)
- PSU : 3000W Redundant (3+3), Load-Balancing PSU
- TDP : 6.5Kw
- Temperature : 5°C-30°C (41°F-86°F)
- GPUs : 8x NVIDIA A100 40GB SXM4
- Performance : 5 petaFLOPS AI / 10 petaOPS INT8
- GPU Memory : 320GB (8x 40GB)
- Tensor Cores : 3,456 (8 x 432)
- NVSwitches : 6x NVIDIA NVSwitches (Total 4.8TB/s Bi-directional Bandwidth)
- NVLinks : 12x NVLinks Per GPU (600GB/s Per GPU to GPU Bi-directional Bandwidth)
장비안내 ○ AI 교육을 위한 초고성능 딥러닝 분석서버
- 빅데이터 처리 및 AI 기반 추론, 딥러닝 가속화의 다양한 기술 개발 및 대용량의 분석 및 검증을 위한 고성능 HPC 서버로 사용하며 본 장비인 NVIDIA A100 GPU는 NVIDIA Ampere 아키텍처의 혁신적인기술로 AI 트레이닝 및 추론을 통합하고 세계 최초 5 페타플롭스 성능을 제공.
- 3 세대 NVLink를 적용한 NVIDIA A100 GPU는 최대 12개의 NVLink 연결을 지원하며 최대 600GB/s의 높은 대역폭, 더 많은 링크, 개선된 확장성과 함께 파티셔닝 기능을 통해 완벽하게 격리된 7개의 개별 인스턴스로 분할하여 사용 가능한 고성능 딥러닝 분석서버임. 소규모에서 대규모까지 아우르는 모든 워크로드 작업에 사용가능하며 최대 56명이 동시에 딥러닝을 수행하는 다중 원격접속을 통한 AI 교육에 활용.
- DGX A100에 포함된 GPU 최적화 소프트웨어의 허브인 NGC를 이용해 대학원생, 연구원 등 다양한 분야의 사용자들이 쉽고 빠르게 딥러닝 모델 구현 및 연구에만 집중할 수 있는 통합 솔루션 제공.