Intel Innvoation 2023のDeep Renderブースでは、Deep Render形式で圧縮した動画を、Neural Engile(NPU)を備えるiPhone、同エンジンを備えるM1/M2チップ搭載のMac、そして12月14日(米国太平洋時間)に正式発表される「Core Ultraプロセッサ」を搭載するノートPCでH.264形式の動画と同時再生するデモンストレーションが行われていた。
Deep Render形式の動画のデコード(展開)は、NPUさえ搭載していればスマホでも十分に行えるようだ。
ブースでは、2台のMacBookシリーズを用いて、互いのWebカメラで撮影した映像をリアルタイムにDeep Render形式でエンコード(圧縮)し、互いにデコードするというビデオ(Web)会議を模したデモンストレーションも行われた。このデモでは、30fpsのフルHD(1920×1080ピクセル)映像を1Mbpsでエンコードして送り、同時に相手側から送られてきた同等品質の映像をデコードする、という実践さながらのものだった。
遅延(レイテンシ)は、0.1秒程度で十分に許容範囲だ。Deep Renderの説明によると、この遅延のうち0.04〜0.05秒がコーデック処理によるもので、残りがデモ環境のWi-Fiネットワークによるものだという。
この際のプロセッサの消費電力は約13Wだった。エンコードとデコードを同時にソフトウェアで行って程度であれば、まずまずといったところか。
Deep Renderコーデックは、主にGeForce RTX 30/40シリーズを搭載するマシンで開発を進めてきたが、GPGPUとして活用できるGPUであれば、メーカーやモデル(アーキテクチャ)を問わず利用できるという。また、スペックによって多少のパフォーマンス差は生じるものの、NPUを含む推論アクセラレーターを統合したCPUでも動くとのことだ。
先述の通り、今回はCore Ultraプロセッサを搭載するノートを使ったデモンストレーションも行われていたが、デコードとエンコードは主にNPUで処理しているとのことだった。
Deep Renderのユー氏は「もし事業が軌道に乗って、Deep Renderの採用事例が増えてくれば、現在はソフトウェアベースのエンコーダー/デコーダーがハードウェア化されて、今のH.264やH.265のように多くのSoC(のメディアエンジンなど)が対応するかもしれない」と、未来の展望を語っていた。
ハードウェアベースのDeep Renderエンコーダー/デコーダーの“搭載事例1号”は、もしかすると今回彼らを優勝者としたIntelかもしれない。
ただ、コーデックとしてのDeep Renderの普及に当たって、課題もある。
Copyright © ITmedia, Inc. All Rights Reserved.