image1

Servilliant SV8000 GPx8-V180

Highlights

  • • 2x Intel® Xeon 6248 Processor
  • • 16x 32GB Memory DDR4 RDIMM 2666MHz
  • • Intel® C620 Series Chipset
  • • 2x 480GB SSD SATA 2.5”/ 4x 1.92TB SSD SATA 2.5”
  • • 8x Tesla V100 32GB PCIe
  • • 2200W Redundant PSU (2+2)
  • • CUDA Cores: 40,960 / Tensor Cores: 5,120
  • • FP16: 960 TFLOPS / FP32: 120 TFLOPS / FP64: 60 TFLOPS
견적 요청 및 제품 문의

SV8000 GPx8-V180

딥러닝, 시뮬레이션, 레이트레이싱, 가상화까지 운영 가능한 혁신적 멀티 시스템

NVIDIA의 RTX 테크놀러지가 적용된 GPU와 함께 인텔의 2nd Generation Scalable
Processors(Cascade Lake)가 탑재된 Servilliant RTX 서버는 강력한 성능을 자랑합니다.
Servilliant Volta Server는 AI/딥러닝 프로그래밍 및 HPC, 가상화 구성이 가능한 고성능 멀티
시스템입니다. 운영 목적에 따라 유연한 사용이 가능하며, 온 프레미스(On-premise) 환경부터
가상화에 이르기까지 모든 인프라에서 최고의 성능을 발휘합니다.

    운영목적에 따라 사용 가능한 멀티 시스템


  • Deep Learning

  • High
    Performance
    Computing

  • Virtualization

AI / Deep Learning

Servilliant Volta Server는 640개의 텐서 코어(Tensor core)를 장착한 Volta 아키텍처를 사용하며, 기존의 CPU가 지원했던 수준보다 훨씬 더 빠른 페타바이트급
연산을 통해 이전보다 훨씬 빠른 속도로 더욱 큰 규모의 시뮬레이션 실행이 가능합니다. Servilliant Volta Server는 심층 신경망(Deep Neural Network, DNN)을
사용하여 AI, Deep Learning에 관련된 애플리케이션 가속 기능을 수행하고 있습니다.

  • Training
    점점 더 복잡해지는 모델을 더욱 빠르게 트레이닝하는 것은 데이터 과학자의 생산성을
    향상하고 AI 서비스를 보다 빠르게 제공하는 데 매우 중요합니다. Servilliant RTX Server는
    그 성능을 활용하여 딥 러닝 트레이닝 시간을 몇 개월에서 몇 시간으로 단축할 수 있습니다.
  • Inference
    추론은 트레이닝을 마친 신경망이 실질적으로 역할을 수행하는 영역입니다.
    이미지, 음성, 비주얼 및 동영상 검색과 같은 새로운 데이터 요소가 등장함에 따라
    추론은 수많은 AI 서비스의 중심에서 사전 학습된 모델에 대한 분석 결과를 제공합니다.
High Performance Computing

범용 컴퓨팅 노드를 많이 배치하는 기존의 HPC 배치 방식은, 비용은 크게 증가시키면서도 성능은 크게 향상시킬
수 없습니다. NVIDIA의 Tesla와 같은 HPC 솔루션은 데이터센터에서 낮은 예산 대비 고성능을 지원하여 범용 컴퓨팅
노드를 많이 배치하는 기존 방식의 단점을 보완합니다.상위 15개의 고성능 컴퓨팅(HPC) 애플리케이션을 포함해
550개 이상의 GPU 가속 애플리케이션을 가속화하여 작업 처리량을 크게 높일 수 있고 비용도 절약할 수 있습니다.

Virtualization

Servilliant Volta Server는 vGPU 기술을 통해 가속화된 여러 개의 가상 데스크톱 및 애플리케이션을 언제 어디서나 모든 기기에서 사용할 수 있습니다.
VDI (데스크탑 가상화) 환경에서 시스템 성능을 향상시키고 애플리케이션 및 장치를 사용하는 모든 사용자에게 IT에 대한 유연성 및 데이터 보안 안정성,
탁월한 그래픽 성능을 제공합니다. 또한 사용자 업무와 특성을 고려한 시스템 선택이 가능하다는 장점이 있습니다.

  • GRID vApp

    애플리케이션 가상화 또는 기타 RDSH 기반
    솔루션을 사용하고자 하는 고객. 윈도우 기반
    애플리케이션을 최고의 성능으로 제공

  • GRID vPC

    가상 데스크톱 환경에서 윈도우 애플리케이션,
    인터넷 브라우징 및 고해상도 비디오를 사용하며
    뛰어난 사용자 경험을 요구하는 경우

  • QUADRO vDWS

    어디서나 장치에 상관 없이
    원격으로 완벽한 성능의 전문가용 그래픽
    애플리케이션을 사용 하고자 하는 유저

Where to Use Volta Servers

Servilliant Volta Server는 렌더링/딥러닝/가상화 기술을 통해 다음과 같이 디자인, 설계, 제조, 의료, 금융, 통신, 교통 등 다양한 분야에서 사용될 수 있습니다.

  • AI Innovators
  • AI Innovators
  • Retail
  • Robotics
  • Architecture
  • Engineering
  • Construction
  • Manufacturing
  • Media Entertainment
Servilliant SV8000 GPx8-V180

Servilliant SV8000 GPx8-V180은 광범위한 시나리오 전반에 걸쳐 확장성이 뛰어난 아키텍처와 유연한 구성 및 인텔리전트 관리기능을
통해 최고의 성능을 제공하는 랙서버입니다. 엔터프라이즈 애플리케이션, 클라우드 컴퓨팅, 빅 데이터, 딥러닝, 데이터베이스 및 HPC와 같은
다양한 애플리케이션에 사용 가능하며 통신, 금융, 인터넷 및 서버에 대한 엄격한 요구 사항이 있는 대기업에 적합합니다.

  • 고성능
    • 강력한 Intel 2nd Generation Scalable processors 채택
    • 패킷 효율 및 데이터를 개선한 인텔의 2소켓 CPU 인터커넥트인 UPI 기술 적용
    • NVIDIA의 최신 Volta 아키텍처 기반의 Tesla V100 PCIe GPU를 8장 장착
  • 유연한 확장성
    • 딥러닝 학습/추론, 가상화의 니즈까지 수용하는 유연한 확장성
    • 병렬처리 딥러닝/고성능 컴퓨팅 연산을 위한 FP32, FP16, FP64 지원
    • 많은 연산량 및 내구성을 고려한 Passive Type GPU의 서버 맞춤형 디자인
  • 관리의 효율성
    • 중요한 데이터를 보호하기 위해 RAID1, RAID5 기술 적용
    • 다양한 관리 솔루션 지원 (시스템 및 주요부품 모니터링, 진단 및 원격 관리)
    • IPMI 2.0 (OS 내 시스템 모니터링) 및 Redfish 지원
Product Appearance
Front View

SV8000 GPx8-V180은 하이엔드급
4U 서버로서 Tesla V100 PCIe
GPU 8개가 장착됩니다.

Rear View

SV8000 GPx8-V180 모델은 FHFL
PCI-E 3.0 x16 규격의 Tesla V100 PCIe
GPU를 최대 8개까지 지원합니다.

Inner
유연하게 구성 가능한 GPU Topology

리더스시스템즈 SV8000 GPx8-V180은 활용 용도에 따라 Balance, Common, Cascade
총 3가지 모드로 유연하게 GPU Topology를 구성할 수 있습니다.

  • 1. Balance Topology

    일반적인 구성 방식으로 두 개의 CPU가 4GPU의 처리를 각각 담당하며, 주로 Public Cloud Service와 High Per-formance Computing에 적합한 구성

  • 2. Common Topology

    CPU-GPU 통신의 충분한 대역폭을 보장하는 방식으로 8GPU의 GPU-GPU 통신을 한 개의 CPU가 담당하여, 8GPU가 동시다발적으로 ‘병렬처리 연산 Model 형성’을 수행해야 하는 큰 규모의 Deep Learning Model Training 에 최적화한 구성

  • 3. Cascade Topology

    GPU-GPU 통신이 극대화된 구조로 GPU 자원을 이용한 처리 시 CPU를 거치지 않고 GPU 간 내부 통신을 함으로써, 더 빠른 연산처리가 가능한 방식으로 Deep Learning Model Training에 적합하며, P2P 연산에 보다 최적화된 구성

SV8000 GPx8-V180 Balanced GPU Topology
SV8000 GPx8-V180 GPU Topology 구성예시

GPU Board – CPU Board 간의 케이블 변환으로 손쉬운 GPU-GPU Topology 변경이 가능합니다.

  • Balance Topology
  • Common Topology
  • Cascade Topology
Extreme World-Class Performance

Servilliant SV8000 GPx8-V180은 최첨단의 컴퓨팅 및 메모리 기술을 지원합니다.
인텔 , 2666MHz 속도 기반 메모리 스틱 및 최대 10.4 GT/s UPI 인터커넥트 링크가
3개 내장된 최신 Intel Xeon Scalable Processor와 함께 제공되어 속도 지연 현상을
감소시킵니다. 또한 고성능 그래픽 분야, HPC, 딥러닝, 머신러닝 애플리케이션 등에서
최적의 시스템 성능을 달성하기 위해 최대 8개의 GPU를 통합할 수 있습니다.

Intelligent Management

Servilliant SV8000 GPx8-V180은 작업을 단순화하고 비용을 절감할 수
있는 다양한 관리기능을 제공합니다. Tool-less removal strategy를 통해
프로세서, 메모리 DIMM 및 어댑터 카드와 같은 업그레이드 가능한 부품에
손쉽게 액세스할 수 있습니다. 이 서버는 프로세서, 메모리, 디스크 및 팬과
같은 주요 구성 요소의 상태를 모니터링하는 고급 원격 관리 기능을
제공합니다.

Servilliant SV8000 Frameworks

Servilliant SV8000은 Caffe, TensorFlow, Theano 및 Torch와 같이 널리 사용되는 딥러닝
프레임워크뿐만 아니라 다양한 프레임워크를 사용자 요구에 따라 기본 설치하여 제공합니다.

NVIDIA Tesla V100

딥러닝, HPC, 가상화 최첨단 분야에 다방면으로 적용 가능한 전문가용 GPU

  • 640개의 TENSOR 코어
    AI를 필요로 하는 모든 산업 분야는 이러한 폭발적인 속도 향상을
    통해 AI를 도입할 수 있게 되었습니다. 640개의 텐서 코어를 탑재한
    Volta는 이전 세대인 NVIDIA Pascal™ 아키텍처보다 5배 이상 증가한
    초당 125 테라플롭스 이상의 딥 러닝 성능을 제공합니다.
  • 새로운 GPU 아키텍처
    210억 개 이상의 트렌지스터를 장착한 Volta는 역사상 가장
    강력한 GPU 아키텍처입니다. NVIDIA® CUDA® 및 Tensor 코어를
    페어링하여 GPU에서 AI 슈퍼컴퓨터의 성능을 제공합니다.
  • 차세대 NVLink™
    Volta는 혁명적인 차세대 NVIDIA NVLink™ 고속 상호 연결 기술을
    사용합니다. 이를 통해 이전 세대 NVLink에 비해 2배의 처리량을 제공
    합니다. 이 덕분에 더욱 개선된 모델과 데이터 병렬 접근법을 활용하는
    강력한 확장성으로 절대적인 최고의 애플리케이션 성능을 달성했습니다.
  • VOLTA 최적화 소프트웨어
    Volta 최적화 CUDA와 함께 cuDNN, NCCL 및 TensorRT 등의
    NVIDIA Deep Learning SDK 라이브러리를 사용해 업계 최고의
    프레임워크와 애플리케이션에서 Volta의 강력한 성능을 손쉽게
    활용할 수 있습니다.
  • 최고의 효율 모드
    새로운 최대 효율 모드를 통해 데이터 센터는 기존 전력 예산 내에서
    랙 당 최대 40 % 더 높은 compute capacity를 달성할 수 있습니다.
    이 모드에서 Tesla V100은 최대 처리 효율로 실행되어 절반의
    전력 소비로 최대 80 %의 성능을 제공합니다.
  • HBM2
    900GB/s의 개선된 대역폭과 95 %의 높은 DRAM 이용 효율을
    결합한 Tesla V100은 STREAM에서 측정한 Pascal GPU보다
    1.5 배 더 높은 메모리 대역 폭을 제공합니다.
  • PROGRAMMABILITY
    Tesla V100은 처음부터 프로그래밍 기능을 단순화하기 위해 설계 되었
    습니다. 새로운 독립적인 스레드 스케줄링을 통해 finer-grain 동기화가
    가능하며 소규모 작업 간에 리소스를 공유함으로써 GPU 활용도가
    향상됩니다.
NVIDIA® Volta Architecture

AI는 하나의 산업으로 정의되지 않습니다. 슈퍼컴퓨팅, 의료, 금융 서비스, 빅데이터 분석 및 게임을 비롯한
다양한 분야에 분포되어 있기 때문입니다. 모든 기업이 인텔리전스를 필요로 하기에 AI는 모든 산업과
시장의 미래라 할 수 있으며, 이러한 AI를 구동하는 엔진이 바로 NVIDIA GPU 컴퓨팅 플랫폼입니다.
NVIDIA Volta™는 인공지능을 뒷받침하는 새로운 원동력입니다. Volta는 모든 산업에서 혁신을 일으키고 있습니다.
이러한 AI의 다음 시대에선 암 근절, 지능형 고객 경험, 자율 주행 차량과 같은 인류의 혁신적인 프로젝트가 실현될 것입니다.

VOLTA VS PASCAL 정밀 연산 성능 비교

세계에서 가장 많은 딥 러닝 처리량 Volta Tensor 코어 구동 NVIDIA V100 GPU
특별히 딥 러닝을 위해 디자인된 Volta의 1세대 Tensor 코어는 FP16 및 FP32에서 혼합 정밀도 행렬 곱셈으로 획기적인 성능을
보여줍니다. 이전 세대 NVIDIA Pascal™에 비해 트레이닝에서 최대 TFLOPS(테라플롭스)가 최대 12배 더 높고, 추론에서 최대
TFLOPS가 6배 더 높습니다. 이 핵심 기능을 통해 Volta는 Pascal에 비해 트레 이닝 및 추론에서 성능이 3배 향상되었습니다.
Tesla V100에 있는 각 640개의 Tensor 코어는 4x4 매트릭스에서 작동하며, 관련 데이터 경로는 세계에서 가장 빠른 부동 소수점
컴퓨팅 처리량을 보이도록 맞춤 설계되었습니다.

획기적인 트레이닝 및 추론 방식

Volta에는 640개의 Tensor 코어가 장착되어 있으며, 각 코어는 클럭당 64개의 부동 소수점 FMA(Fused-Multiply-Add) 연산을
수행합니다. 그래서 트레이닝 및 추론 애플리케이션을 위해 최대 125TFLOPS를 제공합니다. 즉, 개발자는 FP32 누적과 FP16
컴퓨팅의 혼합 정밀도를 사용하여 이전 세대에 비해 3배의 속도 향상과 네트워크의 예상 정확도 수준으로의 수렴을 달성하여 딥
러닝 트레이닝을 실행할 수 있습니다. 이 3배의 성능 향상이 Tensor 코어 기술의 핵심적인 혁신입니다. 이제는 딥 러닝을 단 몇
시간 만에 수행할 수 있습니다.

GRAPECTOR

리더스시스템즈는 멀티 GPU의 상태를 GUI 환경으로 보다 쉽고 직관적으로 모니터링할 수 있는 프로그램을 제공하고 있습니다.

시스템 지원 기능

GRAPECTOR는 다양한 시스템 지원 기능을 통해 사용중인 GPU의 상태를
보다 직관적으로 확인 할 수 있는 리더스시스템즈 만의 GPU 모니터링 솔루션 입니다.

GRAPECTOR Dash Board 화면 구성 및 세부 기능
  • 1 멀티 노드 시스템 총괄 사용량
           Total Node 개수, Total GPU 개수,
           Total GPU Memory 사용량, 현재 온도 정보
  • 2 멀티 노드 시스템 총괄 GPU 사용량
           Total GPU 사용량 및 GPU Memory 사용량
  • 3 개별 GPU 정보
           GPU명 및 Driver 정보, GPU 최대 Clock,
           GPU Memory Clock, GPU 할당 번호
  • 4 개별 GPU 자원 사용량
           개별 GPU 사용량, 개별 GPU 메모리 사용량,
           개별 GPU 온도, GPU Power 사용량,
           GPU ECC Erros 검출량, GPU Fan 성능
  • 5 GPU 성능 측정일 설정
           GPU 모니터링 시간 및 갱신주기
Technical Support

리더스시스템즈는 전문 엔지니어를 보유하여 장애 발생 시 원활한 대응이 가능하며 전화를 통한 문의 응대부터 전문
엔지니어 방문까지 단계적 지원을 하고 있습니다. 또한 지속적으로 정기점검, 교육, H/W 및 S/W 업데이트, 패치 지원 등 사후관리를 통해 고객만족을 약속합니다

리더스시스템즈 기술 지원 서비스
  • 구축 서비스
    일정에 따른 안정적인 제품 공급,
    전문적인 인프라 설계를 통한 시스템 구축
  • 전화지원 서비스
    시스템 운영 중에 있을 수 있는 긴급문의사항
  • 전담지원 서비스
    리더스시스템즈 전담 기술 Support 담당자 배속
    S/W & H/W 장애, 재설치, 교육, 정기점검을 수행
  • 프리미엄급 이상 서비스 제공
    변경작업 On-site 작업계획서 및 정기점검 각종
    산출물 제공 / HW펌웨어 및 SW업데이트, 패치 지원
    재설치 작업 On-site 지원
  • 사전점검 서비스
    정기점검을 통한 사후발생 문제 관련 원천차단
  • 분석 서비스
    HW 및 솔루션 관련 문제 및 장애발생시
    리더스시스템즈 Escalation 지원
전담 채널을 통한 맞춤형 기술 지원 서비스
  • Deep Learning 전문
    지식을 갖춘 리더스시스템즈의
    DL 전문 Engineer 기술 지원
  • H/W 및 S/W 장애 발생 시,
    각 Part 별로 연락할 필요 없이
    모든 부분을 One-Stop 기술 지원
  • 수시로 변화하는
    Deep Learning S/W 프레임워크,
    H/W 호환성 Issue에 실시간 대응
Hardware
Software
SV8000 GPx8-V180 Specification

Form Factor

4U

CPU

2x 2nd Gen Intel Xeon Gold 6248 Processor
(Cascade Lake / 2.2GHz, 20Core, 28MB)

Memory

16x DDR4 32GB PC4 ECC/REG

Power

2200W Redundant PSU (2+2)

Storage

2x 480GB SSD SATA3 2.5” RAID 1 (OS)
4x 1.92TB SSD SATA3 2.5” RAID 5 (DATA)

GPU

8x NVIDIA Tesla V100 32GB HBM2 PCIe

CUDA Core

40,960 (5,120 Per GPU)

Tensor Core

5,120 (640 Per GPU)

GPU Memory

256GB (32GB Per GPU)

FP16

960 TFLOPS (120 TFLOPS Per GPU)

FP32

120 TFLOPS (15 TFLOPS Per GPU)

FP64

60 TFLOPS (7.5 TFLOPS Per GPU)

※ 사용 용도에 따라 사양 변경하실 수 있습니다.