image1

TESLA V100 16GB PCIE

Highlights

  • • Turing Architecture, 16GB HBM2
  • • 5120 CUDA Core / 640 Tensor Core
  • • FP16:112TFlops / FP32:14TFlops / FP64:7TFlops
  • • Memory Bandwidth up to 900GB/s
  • • Passive
견적 요청 및 제품 문의

NVIDIA TESLA V100 16GB PCIE

역사상 가장 진보된 데이터센터 GPU

NVIDIA® V100은 AI, HPC 및 그래픽을 가속화하는 역대 데이터센터
GPU 가운데 세계에서 가장 앞서 있습니다. NVIDIA VoltaTM 아키텍처를
탑재하였고 16GB로 제공되며, 단일 GPU로 100개의 CPU 성능을 제공합니다.
이로써 데이터 과학자, 연구자, 엔지니어는 메모리 사용의 최적화보다
다음 혁신적 AI 디자인에 집중할 수 있습니다.

TESLA DATA CENTER GPU

완전히 새로운 세계의 해결

NVIDIA® Tesla® GPU를 사용하여 높은 사양을 요구하는 HPC와 하이퍼스케일 데이터센터
워크로드를 가속화하십시오. 데이터 과학자와 연구자는 이제 에너지 탐사에서 딥 러닝에
이르는 다양한 응용 분야에서 기존의 CPU가 지원했던 수준보다 훨씬 더 빠르게
페타바이트급 데이터 주문을 파싱할 수 있습니다. Tesla 가속기는 이전보다 훨씬 빠른 속도로
더욱 큰 규모의 시뮬레이션을 실행하는 데 필요한 성능도 제공합니다. 게다가 Tesla는 가상
데스크톱, 애플리케이션, 워크스테이션에 최고의 성능과 사용자 밀도를 제공합니다.

TESLA DATA CENTER GPU
서버용 TESLA 데이터센터 GPU

NVIDIA® Tesla® GPU를 사용하여 높은 사양을 요구하는 HPC와 하이퍼스케일 데이터센터
워크로드를 가속화하십시오. 데이터 과학자와 연구자는 이제 에너지 탐사에서 딥 러닝에 이르는
다양한 응용 분야에서 기존의 CPU가 지원했던 수준보다 훨씬 더 빠르게 페타바이트급 데이터
주문을 파싱할 수 있습니다. Tesla 가속기는 이전보다 훨씬 빠른 속도로 더욱 큰 규모의
시뮬레이션을 실행하는 데 필요한 성능도 제공합니다. 게다가 Tesla는 가상 데스크톱,
애플리케이션, 워크스테이션에 최고의 성능과 사용자 밀도를 제공합니다.

TRAINING (트레이닝)

640개 Tensor 코어를 탑재한 V100은 세계 최초로 딥 러닝 성능의 100 테라플롭스(TFLOPS)란 장벽을 뛰어넘은 GPU입니다. 차세대 NVIDIA NVLink™는 최대 300GB/s로 여러 V100 GPU를 연결하여 세계에서 가장 강력한 컴퓨팅 서버를 구축합니다. 이전 시스템이라면 컴퓨팅 리소스를 몇 주 동안 소모했을 AI 모델을 이제는 며칠 안에 트레이닝할 수 있습니다. 트레이닝 시간이 이렇게 현저하게 줄어들었으니, AI는 이제 완전히 새로운 문제의 세계를 해결할 수 있을 것입니다.

> CPU 보다 2배 빠른 트레이닝 처리량

ResNet-50 training, dataset: ImageNet2012, BS=256 | NVIDIA V100 comparison: NVIDIA DGX-2™ server, 1x V100 SXM3-32GB, MXNet 1.5.1, container=19.11-py3, mixed precision, throughput: 1,525 images/sec | Intel comparison: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240@2GHz/3.9Hz Turbo, Tensorflow 0.18, FP32 (only precision available), throughput: 48 images/sec
INFERENCE (추론)

추론은 트레이닝을 마친 신경망이 실질적으로 역할을 수행하는 영역입니다. 이미지, 음성, 비주얼 및 동영상 검색과 같은 새로운 데이터 요소가 등장함에 따라 추론은 수많은 AI 서비스의 중심에서 그에 대한 대답과 추천을 제공합니다. V100은 기존 하이퍼 스케일 서버 랙에서 최대 성능을 제공하도록 설계되었습니다. 단 한 개의 Tesla GPU를 장착한 서버가 싱글 소켓 CPU로만 구성된 서버보다 24배 높은 추론 처리량을 제공하여 비용을 대폭 절감할 수 있습니다.

> CPU 서버보다 24배 빠른 인퍼런스 처리량

BERT Base fine-tuning inference, dataset: SQuADv1.1, BS=1, sequence length=128 | NVIDIA V100 comparison: Supermicro SYS-4029GP-TRT, 1x V100-PCIE-16GB, pre-release container, mixed precision, NVIDIA TensorRT™ 6.0, throughput: 557 sentences/sec | Intel comparison: 1 socket Intel Gold 6240@ 2.6GHz/3.9Hz Turbo, FP32 (only precision available), OpenVINO MKL-DNN v0.18, throughput:23.5 sentences/sec
A FUNDAMENTAL PILLAR
OF MODERN SCIENCE, NVIDIA HPC

현대 과학을 지탱하는 핵심 기반

TESLA V100은 AI와 HPC의 융합을 위해 제작되었습니다. 또한, HPC 시스템이 과학적 시뮬레이션을 위한 연산 과학과 데이터에서
통찰을 찾는 데이터 과학 분야 모두에서 뛰어난 성능을 발휘할 수 있는 플랫폼을 제공합니다. 날씨 예측에서 약물 발견에 이르기까지 새로운
에너지 원 찾기에 이르기까지 연구원들은 대형 컴퓨팅 시스템을 사용하여 세계를 시뮬레이션하고 예측합니다. AI는 시뮬레이션만으로는
현실 세계를 완전히 예측할 수없는 빠른 통찰력을 얻기 위해 연구원들이 대량의 데이터를 분석 할 수 있도록함으로써 기존 HPC를 확장합니다.

고성능 컴퓨팅(HPC)

> 135개 이상의 CPU 서버 노드를 불과 1개의 V100 서버노드로 대체

Application (Dataset): MILC (APEX Medium) and Chroma (szscl21_24_128)| CPU Server:
Dual-Socket Intel Xeon Platinum 8280 (Cascade Lake)
GROUNDBREAKING INNOVATIONS

역사상 가장 진보된 AI GPU, NVIDIA® Tesla® V100

  • 640개의 TENSOR 코어
    성능의 기하급수적인 도약

    AI를 필요로 하는 모든 산업 분야는 이러한 폭발적인 속도 향상을 통해 AI를 도입할 수 있게 되었습니다. 640개의 텐서 코어를 탑재한 Volta는 이전 세대인 NVIDIA Pascal™ 아키텍처보다 5배 이상 증가한 초당 125 테라플롭스 이상의 딥 러닝 성능을 제공합니다.

  • 새로운 GPU 아키텍처
    최신 컴퓨터용 맞춤 설계

    인류가 마주하고 있는 가장 중요한 도전 과제에는 연산과 데이터 과학 방면 모두에 가장 강력한 컴퓨팅 엔진이 필요합니다. 210억 개 이상의 트렌지스터를 장착한 Volta는 역사상 가장 강력한 GPU 아키텍처입 니다. NVIDIA® CUDA® 및 Tensor 코어를 페어링하여 GPU에서 AI 슈퍼컴퓨터의 성능을 제공합니다.

  • 차세대 NVLink™
    빠른 솔루션 구현을 위한 확장성

    Volta는 혁명적인 차세대 NVIDIA NVLink™ 고속 상호 연결 기술을 사용합니다. 이를 통해 이전 세대 NVLink에 비해 2배의 처리량을 제공합니다. 이 덕분 에 더욱 개선된 모델과 데이터 병렬 접근법을 활용 하는 강력한 확장성으로 절대적인 최고의 애플리 케이션 성능을 달성했습니다.

  • VOLTA 최적화 소프트웨어
    GPU 가속 프레임워크 및 애플리케이션

    Volta 최적화 CUDA와 함께 cuDNN, NCCL 및 TensorRT 등의 NVIDIA Deep Learning SDK 라이브러리를 사용해 업계 최고의 프레임워크와 애플리케이션에서 Volta의 강력한 성능을 손쉽게 활용할 수 있습니다. 데이터 과학자와 연구자들은 그 어느 때보다 빠르게 발견에 도달할 수 있습니다.

  • 최고의 효율 모드
    새로운 수준의 성능

    새로운 최대 효율 모드를 통해 데이터 센터는 기존 전력 예산 내에서 랙 당 최대 40 % 더 높은 com-pute capacity를 달성할 수 있습니다. 이 모드에서 Tesla V100은 최대 처리 효율로 실행되어 절반의 전력 소비로 최대 80 %의 성능을 제공합니다.

  • HBM2
    혁신적인 데이터 처리

    900GB/s의 개선된 대역폭과 95 %의 높은 DRAM 이용 효율을 결합한 Tesla V100은 STREAM에서 측정한 Pascal GPU보다 1.5 배 더 높은 메모리 대역 폭을 제공합니다.

  • PROGRAMMABILITY
    보다 가속화된 작업속도

    Tesla V100은 처음부터 프로그래밍 기능을 단순화 하기 위해 설계 되었습니다. 새로운 독립적인 스레드 스케줄링을 통해 finer-grain 동기화가 가능하며 소규모 작업 간에 리소스를 공유함으로써 GPU 활용도가 향상됩니다.

지원 앱 및 프레임 워크

Tesla T4는 딥 러닝, HPC 및 그래픽을 위한 테슬라 데이터 센터 컴퓨팅 플랫폼의 주력 제품입니다. Tesla 플랫폼은 550가지 이상의 HPC
애플리케이션과 모든 딥 러닝 프레임 워크를 가속화합니다. 데스크톱에서 서버, 클라우드 서비스에 이르기까지 모든 곳에서 사용이 가능하기 때문에
성능 향상 및 비용을 절감 할 수 있습니다. NVIDIA Turing은 인공지능을 뒷받침하는 새로운 원동력이며, 모든 산업에서 혁신을 일으키고 있습니다.
이러한 AI의 다음 시대에선 암 근절, 지능형 고객 경험, 자율 주행 차량과 같은 인류의 혁신적인 프로젝트가 실현될 것입니다.

GRAPECTOR

리더스시스템즈만의 쉽고 직관적인 GPU 모니터링 시스템

리더스시스템즈는 멀티 GPU의 상태를 GUI 환경으로 보다 쉽고 직관적으로 모니터링할 수 있는 프로그램을 제공하고 있습니다.
GRAPECTOR는 기업, 연구소 등 고객님들의 의견을 반영하여 GPU 노드의 시스템 자원 상태와 프로세스를 Web Base GUI 환경으로
보다 쉽고 직관적으로 확인할 수 있는 솔루션입니다.

시스템 지원 기능

GRAPECTOR는 다양한 시스템 지원 기능을 통해 사용중인 GPU의 상태를
보다 직관적으로 확인 할 수 있는 리더스시스템즈 만의 GPU 모니터링 솔루션 입니다.

GRAPECTOR Dash Board 화면 구성 및 세부 기능
  • 1 멀티 노드 시스템 총괄 사용량
           Total Node 개수, Total GPU 개수,
           Total GPU Memory 사용량, 현재 온도 정보
  • 2 멀티 노드 시스템 총괄 GPU 사용량
           Total GPU 사용량 및 GPU Memory 사용량
  • 3 개별 GPU 정보
           GPU명 및 Driver 정보, GPU 최대 Clock,
           GPU Memory Clock, GPU 할당 번호
  • 4 개별 GPU 자원 사용량
           개별 GPU 사용량, 개별 GPU 메모리 사용량,
           개별 GPU 온도, GPU Power 사용량,
           GPU ECC Erros 검출량, GPU Fan 성능
  • 5 GPU 성능 측정일 설정
           GPU 모니터링 시간 및 갱신주기
NVIDIA TESLA V100 16GB PCIe
OUTPUT
NVIDIA TESLA V100 16GB PCIe
ACCESSORY
NVIDIA TESLA V100 16GB PCIe SPECIFICATION

GPU Architecture

NVIDIA Volta

NVIDIA Turing TensorCores

640

NVIDIA CUDA® Cores

5,120

Double-Precision Performance

7 TFLOPS

Single-Precision Performance

14 TFLOPS

Tensor Performance

112 TFLOPS

GPU Memory

16 GB HBM2

Memory Bandwidth

900 GB/sec

ECC

 

Interconnect Bandwidth

32 GB/sec

System Interface

PCIe Gen3

Form Factor

PCle Full Height/Length

Max Power Comsumption

250 W

Thermal Solution

Passive

Compute APIs

CUDA, DirectCompute, OpenCL™, OpenACC®

NVIDIA TESLA V100 16GB PCle Information

상품명

NVIDIA TESLA V100

KCC 인증번호

MSIP-REM-NVA-PG500

정격전압 / 최대소비전력

12 V / 250 W

출시년월

2018년 4월

제조자 / 판매자

NVIDIA Corporation / /(주)리더스시스템즈

제조국

중국

품질보증기준

3년무상

A/S 책임자 및 전화번호

(주)리더스시스템즈 / 1544-5130