一方で問題は、これだけ高性能のモバイルプロセッサを何に活用するかという点だ。一般的なモバイルプロセッサと比較しても非常に高い性能を持つ最新Tegraについて、NVIDIAは「車載システム」に注目している。
車載システムは自動車の制御に加え、最近では「インフォテインメント」と呼ばれるエンターテインメントと情報システムを組み合わせた付加機能、さらに自動制御や運転者支援システムとしてのセンサー連動、リアルタイム認識処理に注目が集まりつつある。
NVIDIAでは、今後車載システムの複雑化により、搭載されるディスプレイや表示情報は飛躍的に増加し、年間で倍々ペース、2020年には2000万ピクセル以上の表示情報を同時に処理することになると見込んでいる。表示ディスプレイも従来のカーナビゲーションやエアコン等の操作パネルだけでなく、運転席のダッシュボードやバックミラー、後部座席や周辺ボタンの操作パネルなど、広い範囲に及ぶ。
これら多くの表示情報を同時処理するための車載インフォテインメントシステムとして、Tegra X1を搭載した「NVIDIA Drive CX」プラットフォームを発表した。これにより、例えばナビゲーションは緻密な3Dモデルがアニメーション動作する地図となり、タコメーターの表示も自在にカスタマイズできるなど、より高度な表示に対応する。
また最近、米国では自動運転による走行実験が盛んになりつつあるが、これを支える技術として各種センサーと、車上でリアルタイムの高速処理による運転判断を実現できるシステムの連携が重要となっている。
ADAS(Advanced Driver Assistance Systems)という運転者の安全を補助する複数種のセンサーを組み合わせた衝突検知システムがあるが、ファン氏によれば、将来的に高度化されたカメラセンサーと認識システムにより、これら機能の代替が可能になるという。つまり、カメラと物体のリアルタイム認識のみで自動運転につながる仕組みを実現できるというわけだ。
これを実現するのが「NVIDIA Drive PX」で、12系統のカメラ映像入力に対応し、それを処理するためのTegra X1を2個搭載することで、高度な機械学習によるリアルタイムの物体検知が可能になるという。
カメラ映像に映った物体を、機械学習を通して作成した分岐により自動的にクラス分類し、運転判断に利用する。もし認識できない物体だったとしても、そのデータをセンターのスーパーコンピュータへとフィードバックし、さらに学習処理を進めた認識情報をDrive PXへと配布することで、時間の経過とともに自動的に賢くなる仕組みだ。
壇上にはAudiのエレクトロニクス開発担当エグゼクティブバイスプレジデントのリッキー・フーディ氏が登場し、同社が現在取り組んでいるインフォテインメントシステムや、自動運転への取り組みの経緯について説明した。
同社はTegra K1を採用した車載システムをすでに一部車種に展開しているほか、昨年2014年9月にはカリフォルニア州公道での自動運転テストの許可を得たことが知られている。今後も、こうした最新プロセッサやセンサー技術を活用することで、より高度で安全な運転システムの開発や展開を進めていくことになるだろう。
Copyright © ITmedia, Inc. All Rights Reserved.