検索
ニュース

NVIDIAがWindowsのAI推論をより簡単かつ高速化できる「TensorRT for RTX」を開発 Windows 11でプレビューCOMPUTEX TAIPEI 2025

Microsoftが、Windows 11向けの「Windows ML」でハードウェアアーキテクチャに応じて推論ライブラリを入れ替える仕組みを導入した。これに合わせて、NVIDIAもTensorプロセッサを搭載するGPU向けのライブラリ「TensorRT for RTX」を開発した。

Share
Tweet
LINE
Hatena

 NVIDIAは5月20日(米国太平洋夏時間)、Windowsに特化したAI推論ライブラリ「NVIDIA TensorRT for RTX」を開発したと発表した。Microsoftが提供するWindows 11向け「Windows ML」の一部としてプレビュー提供が始まっており、6月中にはNVIDIAからもSDK(開発者キット)が提供される予定だ。

NVIDIA TensorRT for RTX
NVIDIA TensorRT for RTX

 TensorRT for RTXはWindows MLに組み込めることが特徴で、Windows MLの標準API(ライブラリ)である「DirectML」と比べると最大2倍のパフォーマンスを発揮できるという。Tensorコアを統合した全てのNVIDIA製GPU(「RTX」という名称が含まれているもの)に対応していることも特徴だ。

 Windows MLの一部として提供されるため、推論エンジンを事前にコンパイルする必要がないことや、ライブラリを事前にダウンロードしておく必要がないことがメリットだ。

 NVIDIAによるとTensorRT for RTXは一部の開発者に先行提供されており、フィードバックの結果も良好だという。開発者がより気軽にTensorRTを活用でき、一般ユーザーが気軽に生成AIのメリットを得られる手段として普及が進む可能性がある。

メリット
TensorRT for RTXの仕組み。Windows MLが推論演算するハードウェアのアーキテクチャに応じてライブラリを切り替える機構を導入したことを受けた取り組みだ
比較
「GeForce RTX 5090」でDirectMLを使った場合と比べると、平均で1.5倍、最大で2倍のパフォーマンス向上を確認できたという

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る