DGX-1
With NVIDIA Tesla VOLTA

  • • 8x NVIDIA® Tesla V100 SXM2 32GB (8 Way NVLink Support)
  • • 256GB Total GPU Memory
  • • 1 PetaFlops
  • • 40,960 CUDA® Cores / 5,120 Tensor Cores
  • • Dual 20-Core Intel Xeon E5-2698 v4 2.2GHz
  • • 512GB 2,133MHz DDR4 LRDIMM System Memory
  • • Dual 10 GbE, Up to 4 IB EDRy
  • • 4x 1.92TB SSD RAID 0
  • • FP16 : 1 PetaFlops / FP32 : 120 TFlops / FP64 : 60 TFlops
견적 요청 및 제품 문의
DGX-1
With NVIDIA Tesla VOLTA

워크스테이션 크기의 고성능,저소음 딥 러닝 슈퍼 컴퓨터

AI 연구에 필수적인 기기로, 데이터센터를 가속화하고 딥 러닝 워크플로우를 간소화하도록
설계되었습니다. 제품을 받는 순간부터 더욱 빠르게 실험하고 더 큰 모델을 트레이닝 하고
인사이트를 얻을 수 있습니다. 이제 NVIDIA Volta™를 탑재하여 제공되는 NVIDIA DGX-1은
대규모 AI에 업계 최고의 성능을 제공합니다.

GPU DEEP LEARNING IGNITES AI
  • 딥 러닝의 힘
    딥 러닝은 인공 지능(AI)에서 가장 빠르게 성장하고 있는 분야로 컴퓨터가 이미지, 소리, 텍스트 형태로 되어 있는
    무한한 양의 데이터를 이해할 수 있도록 돕는 기술입니다. 이제 컴퓨터는 여러 단계의 신경망을 사용해서 복잡한
    상황을 인간 이상의 수준으로 보고, 학습하고, 반응할 수 있습니다. 그 결과로 데이터, 기술, 우리가 제공하는
    제품과 서비스를 보는 방식이 크게 달라지고 있습니다.
  • Deep Learning은 어떻게 작용합니까?
    이는 인공 뉴럴 네트워크를 "트레이닝(Training)"으로 시작합니다. 이미지, 비디오 및 대화와
    같은 비구조적 데이터의 수 많은 예를 강력한 컴퓨터에 집어넣는 일(feeding)을 포함합니다.
INTRODUCING THE DGX FAMILY

Purpose-Built for the Unique Demands of AI

딥 러닝은 인공지닝 (AI)에서 가장 빠르게 성장하고 있는 분야로 컴퓨터가 이미지, 소리,
텍스트, 형태로 되어 있는 무한한 양의 데이터를 이해할 수 있도록 돕는 기술 입니다. 이제
컴퓨터는 여러 단계의 신경망을 사용해서 복잡한 상황을 인간 이상의 수준으로 보고, 학습
하고, 반응할 수 있습니다. 그 결과로 데이터, 기술, 우리가 제공 하는 제품과 서비스를 보는
방식이 크게 달라지고 있습니다.

THE FASTEST PATH TO DEEP LEARNING

딥 러닝 플랫폼 구축이란 서버 및 GPU 선택보다 훨씬 중요합니다. 운영 중인 사업에 AI를 도입하는 과정에는 복잡한 소프트웨어와
하드웨어를 선택하여 통합하는 단계가 포함됩니다. NVIDIA DGX-1™은 구매 즉시 간편하게 사용할 수 있는 솔루션으로 이니셔티브의
진행을 가속화하여 주 또는 월 단위가 아닌 수 시간 이내에 통찰을 이끌어내 드립니다.

NVIDIA DGX SYSTEM FRAMEWORKS

DGX 시스템에 최적화된 딥러닝 프레임 워크 제공

NVIDIA DGX-1은 Caffe, TensorFlow, Theano 및 Torch 와 같이 널리 사용 되는
딥러닝 프레임워크 뿐만 아니라 다양한 프레임 워크를 지원하며 추가로 설치 해서 사용
가능합니다. 또한 Docker를 사용하여 각 사용자가 원하는 환경에 맞게 딥러닝 프레임
워크를 할당하므로, 효율적인 자원 사용이 가능합니다.

NVIDIA VOLTA

The New GPU Architecture, Designed to Bring AI to Every Industry.

엔비디아 볼타™ (NVIDIA Volta™) 아키텍처 기반의 엔비디아 테슬라® V100 (NVIDIA Tesla® V100) 데이터센터 GPU와 최적의 인공지능 소프트웨어 패키지로
구성된 DGX 인공지능 슈퍼컴퓨터 시스템은 이전 세대 DGX와 비교해 3배 가량 빠른 획기적인 인공지능 컴퓨팅 파워를 구현하며 최대 CPU 800개의 성능을 단일
시스템 형태로 제공합니다. 테슬라 V100 GPU는 100 테라플롭 장벽을 허무는 첨단 기술로, 엔비디아의 이전 세대 GPU을 뛰어넘는 딥 러닝 성능을 제공합니다.

  • 새로운 GPU 아키텍처
    210억개 이상의 트랜지스터로 구성
    됐으며, CUDA 코어와 텐서 코어를 통합
    아키텍처에 결합해 단일 GPU로 인공 지능
    슈퍼컴퓨터 급의 성능을 구현합니다.
  • 텐서 코어(Tensor Core)
    인공지능 워크로드를 가속화기 위해 고안
    됐습니다. 640개의 텐서 코어를 장착한
    V100는 CPU 100개의 성능에 준하는
    120 테라플롭 딥 러닝 성능을 구현합니다.
  • NVLink™
    CPU와 GPU, 또는 GPU 간의 초고속
    연결을 지원하는 차세대 인터커넥트로,
    이전 세대 NVLink 대비 최대 2배 가량의
    성능을 제공합니다.
  • 볼타 최적화 소프트웨어
    CUDA, cuDNN, TensorRT™ 등 볼타에 최적
    화된 소프트웨어는 선도적인 프레임 워크와
    애플리케이션에 쉽게 도입되어 인공 지능
    및 연구를 가속화 시킬 수 있습니다.
NVIDIA DGX-1V

Explore the powerful components of DGX-1V

  • 1  NVIDIA TESLA V100
            딥 러닝을 위해 설계된 Tensor 코어 기술을 통합하는 최초의
               GPU 아키텍처로 이제 32GB 메모리와 함께 제공됩니다.
  • 2  NEXT GENERATION NVIDIA NVLINK
            기존의 PCle Gen3 x 16 상호 연결보다 10배 빠르며, GPU당
               300 GB/s에 달하는 고속 상호 연결.
  • 3  TWO INTEL XEON CPU
            부팅, 스토리지 관리, 딥 러닝 프레임워크 조정을 담당합니다.
  • 4  QUAD EDR IB
            높은 대역폭과 짧은 대기 시간, 총 800Gb/s의 통신 속도.
  • 5  THREE RACK-UNIT ENCLOSURE
            소형 랙 공간에 적합, 최대 시스템 전원 3,500W 사용.
NVIDIA DGX-1V SPECIFICATIONS

GPUs

8X Tesla V100 PCle 32GB

TFLOPS

1 petalFLOPS

GPU Memory

256GB total system

CPU

Dual 20- Core Intel Xeon E5-2698 v4 2.2GHz

NVIDIA Tensor Cores

5,120

NVIDIA CUDA Cores

40.960

Maximum Power Requirements

3,500W

System Memory

512GB 2,133 MHz DDR4 RDIMM

Storage

4X 1.92 TB SSD RAID 0

Network

Dual 10GbE, 4 IB EDR

Display

Canonical Ubuntu,Red Hat Enterprise Linux

Acoustics

134 lbs

System Weight

866 D x 444 W X 131 H (mm)

System Dimensionst

1,180 D x 730 W X 284 H (mm)

Operating Temperature Range

5˚C to 35˚C