NVIDIA DGX POD™
엔비디아 코리아 정품

데이터시트 다운
제품이미지 NVIDIA ELITE PARTNER

모든 AI 엔터프라이즈를 위해 디자인된
NVIDIA DGX A100기반의 NVIDIA DGX POD™

NVIDIA A100 Tensor 코어 GPU
AI, 데이터 분석 및 HPC를 위한 유례없는 가속화를 통해 세계에서 가장 까다로운 컴퓨팅 문제 처리가 가능합니다. A100 GPU는 3세대 NVIDIA Tensor 코어가 성능을 막대하게 향상시키기 때문에 수천 개 단위로 효율적으로 확장하거나 Multi-Instance GPU를 통해 7개의 더 작은 인스턴스로 분할되어 모든 규모의 워크로드를 가속화 할 수 있습니다.
Multi-Instance GPU (MIG)
Multi-Instance GPU 덕분에 DGX A100의 A100 GPU 8개는 무려 56개의 GPU 인스턴스로 구성될 수 있으며 각 GPU 인스턴스는 고유의 고대역폭 메모리, 캐시, 컴퓨팅 코어로 완전히 격리될 수 있습니다. 이는 관리자가 여러 워크로드를 위해 보장된 서비스 품질(QoS)의 GPU를 적절한 크기로 사용할 수 있게 합니다.
차세대 NVLink 및 NVSwitch
3세대 NVIDIA® NVLink®는 GPU 간의 직접적인 대역폭을 2배인 600GB/s로 증가시키며 이는 PCIe Gen 4의 10배에 달합니다. DGX A100 는 이전 세대보다 2배 빠른 차세대 NVIDIA NVSwitch™를 탑재합니다.
내장형 보안
자체 암호화 드라이브, 서명된 소프트웨어 컨테이너, 안전한 관리 및 모니터링 등 모든 주요 하드웨어 및 소프트웨어 구성 요소를 보호하는 다단계 접근 방식으로 AI 배포를 위한 가장 든든한 보안 방식을 제공합니다.
최적화된 소프트웨어 스택
DGX A100은 AI 조정된 기본 운영 체제, 필요한 모든 시스템 소프트웨어, GPU 가속 애플리케이션, 사전 트레이닝된 모델 및 NGC™의 기타 기능 등 테스트를 거쳐 최적화 된 DGX 소프트웨어 스택을 통합합니다.
Mellanox ConnectX-6 VPI HDR InfiniBand
DGX A100은 200GB/s로 작동하는 최신 Mellanox ConnectX-6 VPI HDR InfiniBand/이더넷 어댑터를 탑재하여 대규모 AI 워크로드를 위한 고속 패브릭을 생성합니다.

리더스시스템즈는 데이터 센터를 위한
맞춤형 솔루션을 제공합니다

워크스테이션 딥 러닝 솔루션
딥 러닝 워크스테이션 솔루션은 기존 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC(NVIDIA GPU Cloud)에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
GPU 클라우드 컴퓨팅 솔루션
GPU 클라우드 컴퓨팅은 모든 엔터프라이즈에서 물리적 데이터센터 구축 없이 손쉽게 대규모 컴퓨팅 성능에 액세스 할 수 있도록 합니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
엣지 컴퓨팅 솔루션
현대 기업은 이제 수십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
온 프레미스 딥 러닝 솔루션
GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 또는 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.

NVIDIA DGX POD™ 는 전례 없는 AI 요구에 따라 설계된 자체 컴퓨팅, 스토리지,
네트워킹 인프라를 포함하는 최적화된 데이터 센터 랙입니다.

Selecting the Right IT Platform for AI

22:43
  • NVIDIA DGX Station™
    AI 워크그룹 어플라이언스
    데이터 센터 없이 실험과 개발을 위한 서버 급의 성능을 제공하는 이상적인 plug-and-go AI 시스템
  • NVIDIA DGX Servers
    AI 트레이닝, 추론 및 분석
    다양한 서버 솔루션을 통한 가장 복잡한 AI 과제를 처리가 가능한 슈퍼컴퓨터의 핵심 구성 요소
  • NVIDIA DGX POD™
    확장된 AI 인프라 솔루션
    스토리지, 컴퓨팅, 네트워킹 분야의 업계 리더와 함께 구축한 업계 표준 AI 인프라 디자인
  • NVIDIA DGX SUPERPOD™
    턴키 AI 인프라
    대규모 AI Enterprise를 위한 가장
    빠른 길을 제공하는 업계 최고의
    Full-cycle 인프라

NVIDIA DGX POD™는 NVIDIA DGX로 GPU 가속 AI 데이터
센터를 구축하기 위한 검증된 설계 접근 방식을 제공하며,
NVIDIA의 모범 사례와 실제 배포에서 얻은 통찰력을 활용합니다.

AI 흐름에서 앞서나가려는 노력은 계속되고 있습니다. NVIDIA는 전 세계적으로 현장에서 입증된 AI 배포 지식과 NVIDIA DGX SATURNV를 모든 엔터프라이즈가 활용할 수 있는 복제 가능하고 검증된 디자인으로 구축한 경험을 통해 독보적인 입지를 굳히고 있습니다. NVIDIA DGX POD™는 NVIDIA DGX를 기반으로 구축된 통합 AI 인프라 디자인에 컴퓨팅, 네트워킹, 스토리지, 전력, 냉각 등의 모범 사례를 한데 모은 참조 아키텍처입니다.

  • DDN
  • DELL EMC
  • IBM
  • VAST
  • PURE STORAGE
  • WEKA
  • NETAPP

딥 러닝 데이터센터에서
구축된 AI를 비즈니스에 통합하세요.

GPU 가속화 데이터센터는 더 적은 수의 서버와 더 낮은 전력으로 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감하도록 합니다. NVIDIA® Tesla® GPU가 지원하는 NVIDIA 딥 러닝 솔루션으로 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결할 수 있습니다. 프로덕션 규모의 트레이닝 및 추론에 이상적인 이 제품의 세계 최고 성능은 가장 인기 많은 딥 러닝 프레임워크와 550가지가 넘는 HPC(고성능 컴퓨팅) 애플리케이션을 가속화하는 데 사용될 수 있습니다.

Data Analytics
기존의 데이터 사이언스 워크플로우는 느리고 까다로웠으며, 데이터를 로드, 필터링, 조작하고, 모델을 학습하고 배포하는데 CPU에 의존해 왔습니다. GPU는 NVIDIA RAPIDS™ 오픈소스 소프트웨어 라이브러리를 사용하여 인프라 비용을 대폭 절감하고 엔드 투 엔드 데이터 사이언스 워크플로우에 탁월한 성능을 제공합니다.
AI Training
딥 러닝 신경망이 복잡해짐에 따라, AI 트레이닝 시간이 상당히 증가하면서 생산성이 저하되고 비용은 증가하게 되었습니다. NVIDIA의 소프트웨어 솔루션은 트레이닝을 상당히 가속화하여 보다 짧은 기간에 깊이 있는 정보를 얻음으로써 비용을 상당히 절감하고 ROI 기간도 단축하도록 합니다.
AI Inference
AI Inference
컴퓨터 비전, 대화식 AI 및 맞춤형 추천 시스템 등 정교한 AI 지원 서비스에 대한 수요가 높아지고 있습니다. 동시에 사용자의 기대를 충족하기 위해 데이터 세트는 증가하고 네트워크는 더 복잡해지며 대기 시간 요구사항은 줄어들고 있습니다. GPU 최적화된 리소스를 사용하면 이러한 서비스를 고객이 원하는 속도와 성능에 맞게 제공할 수 있습니다.
High-Performance Computing
High-Performance Computing
고성능 컴퓨팅(HPC)은 과학의 진보를 이끌어 나가는 데 가장 필수적인 도구 중 하나입니다. 광범위한 분야에서 700개 이상의 애플리케이션이 GPU 컴퓨팅에 의해 가속화되며 이러한 애플리케이션을 개발, 최적화 및 배포하는데 C, C++, Fortran 및 Python 등의 인기 있는 언어가 사용되어 과학적 발견의 길을 닦고 있습니다.

모든 워크로드에 최적화된 데이터 센터를 위한
DGX 지원 소프트웨어 파트너

데이터 사이언스와 AI를 발전시키려면 조직은 클라우드 및 데이터센터에서 엣지에 이르는 GPU 기반 시스템을 최적화할 수 있는 도구를 이용해야 합니다. NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하므로 IT 관리자, 데이터 사이언티스트, DevOps 팀과 개발자가 필요한 것을 빠르고 쉽게 이용할 수 있습니다.

이미지
NVIDIA DGX Foundry
NVIDIA DGX™ Foundry는 NVIDIA Base Command™ 소프트웨어,
NetApp 스토리지, NVIDIA DGX SuperPOD™ 아키텍처 기반 완전 관리형 NVIDIA 인프라 액세스 등을 포함하는 종합 AI 개발용 호스팅 솔루션입니다. DGX Foundry는 세계에서 가장 까다로운 AI 기업을 위한 개발 허브입니다. 직접 구축하는 수고 없이 데이터 사이언티스트에게 프리미엄 AI 개발 경험을 제공하세요.
NVIDIA CUDA-X AI
데이터 사이언스는 AI의 주요 동력 중 하나이며 AI는 모든 산업을 혁신할 수 있습니다. 그러나 이러한 성능을 활용하는 것은 복잡한 문제입니다. AI 기반 애플리케이션을 개발하는데는 데이터 처리, 기능 엔지니어링, 머신 러닝, 확인 및 배포 등 여러 단계가 필요하고 각 단계마다 대용량 데이터 처리와 방대한 컴퓨팅 작업이 포함됩니다. 이에는 가속화 컴퓨팅이 필요하고 바로 이 부분이 CUDA-X AI가 혁신을 주도하는 분야입니다.
AI Enterprise
NVIDIA AI Enterprise는 NVIDIA-Certified Systems™를 통해 VMware vSphere에서 실행되도록 NVIDIA가 최적화, 인증 및 지원하는 AI 및 데이터 분석 소프트웨어의 엔드 투 엔드 클라우드 네이티브 제품군입니다. 최신 하이브리드 클라우드에서 빠른 배포, 관리 및 AI 워크로드 확장을 지원하는 NVIDIA의 주요 기술이 포함되어 있습니다.
NVIDIA Fleet Command
NVIDIA Fleet Command™ 는 분산된 에지 인프라에서 AI 애플리케이션을 안전하게 배포, 관리 및 확장하는 클라우드 서비스입니다. AI를 위해 특별히 제작된 Fleet Command는 간소화된 배포, 계층화된 보안 및 세부 모니터링 기능을 제공하는 AI 수명 주기 관리를 위한 턴키 솔루션이므로 몇 분 만에 0에서 AI로 이동할 수 있습니다.
NVIDIA Magnum IO
새로운 컴퓨팅 단위는 데이터센터이며 그 핵심에는 NVIDIA GPU와 NVIDIA 네트워크가 있습니다. 가속화된 컴퓨팅은 성능을 최대화하기 위해 가속화된 입출력(IO)이 필요합니다. 최신 데이터 센터의 IO 하위 시스템인 NVIDIA Magnum IO™ 는 병렬, 비동기 및 지능형 데이터 센터 IO를 위한 아키텍처로, 다중 GPU, 다중 노드 가속을 위해 스토리지 및 네트워크 IO 성능을 극대화합니다.
Virtualization
NVIDIA vGPU 소프트웨어는 클라우드 또는 엔터프라이즈 데이터센터 서버의 물리적 GPU에 설치되어 어디서든 원하는 디바이스에서 액세스 되는 여러 가상 머신에서 공유할 수 있는 가상 GPU를 만들어줍니다. 이를 통해 IT 팀이 가상화의 관리 및 보안 이점을 불러 일으키며 데이터 사이언스 및 AI에 이르는 최적화된 워크로드와 최신 NVIDIA GPU의 성능을 활용할 수 있습니다.

NGC™ 는 개발부터 배포까지, 팀이 첫걸음을 떼는데
필요한 모든 것을 제공하여 워크플로우 가속화합니다.

하나의 통합 아키텍처를 가진 딥 러닝 프레임워크의 신경망은 트레이닝 후 NVIDIA TensorRT로 최적화를 거치고 엣지에서의 실시간 추론을 위해 배포될 수 있습니다. NVIDIA는 NVIDIA DGX™ Systems, NVIDIA Tensor 코어 GPU, NVIDIA Jetson™ 및 NVIDIA DRIVE™ NVIDIA는 MLPerf 벤치마크 스위트에서 보여준 것처럼 엔드-투-엔드 확장 가능한 딥 러닝 플랫폼을 제공합니다.

  • ALLEGRO
  • CNVRG
  • CORE SIENTIFIC
  • IGUAZIO
  • PAPER SPACE
  • DOMINO