NVIDIA Tesla

The Accelerated Computing Platform for Data Centers

  • 세계 최첨단 데이터센터 GPU
    NVIDIA® Tesla® GPU를 사용하여 높은 사양을 요구하는 HPC와 하이퍼스케일 데이터센터
    워크로드를 가속화하십시오. 데이터 과학자와 연구자는 이제 에너지 탐사에서 딥 러닝에 이르는
    다양한 응용 분야에서 기존의 CPU가 지원했던 수준보다 훨씬 더 빠르게 페타바이트급 데이터 주문을
    파싱할 수 있습니다. Tesla 가속기는 이전보다 훨씬 빠른 속도로 더욱 큰 규모의 시뮬레이션을
    실행하는 데 필요한 성능도 제공합니다. 게다가 Tesla는 가상 데스크톱, 애플리케이션,
    워크스테이션에 최고의 성능과 사용자 밀도를 제공합니다.
  • 한 단계 높은 추론 가속화의 등장
    NVIDIA® T4 GPU는 고성능 컴퓨팅, 딥 러닝 트레이닝 및 추론, 머신 러닝, 데이터 분석, 그래픽
    등과 같은 다양한 클라우드 워크로드를 가속화합니다. NVIDIA Turing™ 아키텍처를 기반으로
    70와트의 에너지 효율과 소형 PCI 폼팩터들로 제작된 T4는 주류의 컴퓨팅 개발 환경에
    최적화되어 있으며, 다중 정밀 Turing Tensor 코어와 새로운 RT 코어가 탑재되어 있습니다.
    T4는 NGC가 제공하는 가속화 컨테이너화 소프트웨어 스택과 결합하여 혁신적인 대규모 성능을
    제공합니다.
  • Tesla T4

    유연한 디자인, 획기적인 성능
    • 작은 사이즈의 폼팩터와 70W(와트)의 저전력 디자인
    • 최고 수준의 에너지 효율을 필요로 하는 데이터 센터에 적합
    • FP32, FP16, INT8에서 INT4 까지 획기적인 성능 발휘
    • 파스칼 아키텍처보다 2배 향상된 디코딩 성능 제공
    • Turing Architecture, 16GB GDDR6
    • 2560 CUDA Core / 320 Tensor Core / 40 RT Core
    • FP16:65TFlops / FP32:8.1TFlops
    • Memory Bandwidth up to 320GB/s
    • Passive
    자세히보기
  • Tesla V100 32GB

    진보된 데이터센터 GPU
    • NVIDIA VOLTA GPU 아키텍처가 탑재된 V100 32GB
    • 보다 빠르고 높은 효율성의 HBM2 메모리
    • 딥러닝을 위해 최적화 된 새로운 스트리밍
      멀티 프로세서(SM) 아키텍처
    • Volta Architecture, 32GB HBM2
    • 5120 CUDA Core / 640 Tensor Core
    • FP16:112TFlops / FP32:14TFlops / FP64:7TFlops
    • Memory Bandwidth up to 900GB/s
    • Passive
    자세히보기
  • Tesla V100 16GB

    진보된 데이터센터 GPU
    • NVIDIA VOLTA GPU 아키텍처가 탑재된 V100 32GB
    • 보다 빠르고 높은 효율성의 HBM2 메모리
    • 딥러닝을 위해 최적화 된 새로운 스트리밍
      멀티 프로세서(SM) 아키텍처
    • Volta Architecture, 16GB HBM2
    • 5120 CUDA Core / 640 Tensor Core
    • FP16:112TFlops / FP32:14TFlops / FP64:7TFlops
    • Memory Bandwidth up to 900GB/s
    • Passive
    자세히보기
  • Tesla P4

    For Ultra-Efficient Scale-Out Servers
    • 작은 사이즈의 폼팩터와 70W(와트)의 저전력 디자인
    • 최고 수준의 에너지 효율을 필요로 하는 데이터 센터에 적합
    • 하나의 테슬라 P4는 영상 추론 작업에서 13대의 CPU 단일 서버 대체
    • 8비트(INT8) 기반의 특수 추론 명령 사용
    • Pascal Architecture, 8GB GDDR5
    • 2560 CUDA Core
    • INT8:22TOPS / FP32:5.5TFlop
    • Memory Bandwidth up to 192GB/s
    • Passive
    자세히보기
  • Tesla P40

    For Inference-Throughput Servers
    • 음성, 이미지 또는 텍스트를 인식하기 위해 훈련된 심층
    • 47 TOPS INT8의 성능으로 140대 이상의 CPU 기반
    • 추론 가속 소프트웨어, 텐서RT, 딥스트림 SDK
    • Pascal Architecture, 24GB GDDR5
    • 3840 CUDA Core
    • INT8:47TOPS / FP32:12TFlop
    • Memory Bandwidth up to 346GB/s
    • Passive
    자세히보기