개발자는 CUDA를 사용하여 GPU의 힘을 이용하여 컴퓨팅 응용 프로그램의
속도를 크게 높일 수 있습니다. GPU 가속 응용 프로그램에서 작업 부하의
순차적 부분은 단일 스레드 성능에 최적화 된 CPU에서 실행되는 반면 응용
프로그램의 계산 집약 부분은 수천 개의 GPU 코어에서 동시에 실행됩니다.
개발자는 CUDA를 사용할 때 C, C ++, Fortran, Python 및 MATLAB과 같은
널리 사용되는 언어로 프로그램을 작성하고 몇 가지 기본 키워드 형태로
확장을 통해 병렬 처리를 표현합니다.
GPU 가속화 컴퓨팅 애플리케이션 구축을 위한 NVIDIA의 HPC
(고성능 컴퓨팅) 제품군에는 언어 기반 및 명령 기반 솔루션과
함께 전문 라이브러리가 포함되어있습니다. 이 제품군을
사용하면 연구원, 과학자 및 개발자가 수천개의 GPU 코어를
사용하여 고성능 컴퓨팅 응용 프로그램을 개발할 수 있습니다.
딥러닝은 AI와 머신러닝의 서브셋으로, 장애물 탐지, 음성인식, 언어 번역 등의
작업에서 최첨단의 정확도를 구현해내기 위해 다층구조의 인공 신경망을
사용합니다. 딥러닝은 이미지, 비디오 또는 텍스트와 같은 데이터로부터
수작업 코딩 룰이나 인간 영역의 지식없이 자동적으로 묘사를 배울 수 있다는
점에서 전통적인 머신러닝과 차이가 있습니다. 딥러닝을 위한 유연한
아키텍처는 많은 양의 데이터가 제공되었을때 기본 데이터로부터 직접적인
학습을 할 수 있으며 예측 정확도를 높일 수 있습니다.
NVIDIA TensorRT™ 는 고성능 딥러닝 추론(inference)을 위한
플랫폼입니다. 이것은 딥러닝 추론 어플리케이션을 위한 low
latency(낮은 대기시간), 높은 처리량의 실행 시간과 딥러닝
인퍼런스 최적화 도구를 포함합니다. TensorRT 기반의
어플리케이션들은 추론을 수행하는 동안 CPU단일 플랫폼보다
최대 40배 빠르게 수행합니다. TensorRT를 사용하여, 모든 주요
프레임워크에서 트레이닝 된 신경망 모델의 개발을 최적화하고,
높은 정확성을 갖추어 정교하게 연산을 보정하며, 하이퍼스케일
데이터센터, 임베디드 또는 자동차 제품 플랫폼에 사용할 수
있습니다.
딥러닝은 AI와 머신러닝의 서브셋으로, 장애물 탐지, 음성인식, 언어 번역 등의
작업에서 최첨단의 정확도를 구현해내기 위해 다층구조의 인공 신경망을
사용합니다. 딥러닝은 이미지, 비디오 또는 텍스트와 같은 데이터로부터
수작업 코딩 룰이나 인간 영역의 지식없이 자동적으로 묘사를 배울 수 있다는
점에서 전통적인 머신러닝과 차이가 있습니다. 딥러닝을 위한 유연한
아키텍처는 많은 양의 데이터가 제공되었을때 기본 데이터로부터 직접적인
학습을 할 수 있으며 예측 정확도를 높일 수 있습니다.
NVIDIA DesignWorks는 GPU 가속화 전문 시각화 애플리케이션을
구축하기 위한 제품의 컬렉션입니다. 이것은 소프트웨어 개발 키트
(Software Development Kits), 라이브러리, 렌더(Render)용 샘플,
비디오, 그리고 디스플레이 솔루션을 포함합니다. 이러한 제품은 산업
전반의 개발자, 연구자 및 과학자들이 가속화 비디오 프로세싱을 위한
전용 하드웨어 장치와 함께 현대 GPU 상의 무수히 많은 컴퓨팅 코어를
유용하게 사용할 수 있게 해 줍니다.