ニュース
» 2005年04月19日 20時37分 UPDATE

3Dホームシアターが現実に?――“つなぐだけ”の立体視STB (1/2)

マクニカとマーキュリーシステムは、2D映像を3D映像にリアルタイム変換するSTB「3D MAVE」を発売する。普通のビデオやDVDが、このSTBを通すだけで立体動画になるというもの。当初は業務用だが、価格を下げたコンシューマー向け製品の投入も検討中。

[ITmedia]

 マクニカとマーキュリーシステムは4月19日、通常の映像を3D映像にリアルタイム変換できるセットトップボックス「3D MAVE」(スリーディ メイブ)を発表した。昨年10月の「CEATEC JAPAN 2004」で技術発表したもの。当初は業務用として発売するが、コンシューマー向けの製品開発も検討していくという。

photo 「3D MAVE」。当初は業務用のため、30万円と高価だ。4月26日発売

 3D MAVEの特徴は、あらかじめ専用コンテンツを作る必要がないことだ。ビデオやDVDなどのNTSCソースがあれば、STBが毎秒30フレームのスピードでフォーマット変換を行い、テレビやPC用ディスプレイに出力できる。いわゆる“赤青メガネ”を使うアナグリフ、偏光メガネやシャッターを用いるODD-EVEN、2台のプロジェクターを使用するFULL-LRなどに対応しており、STBとメガネさえあれば、立体的な映像を楽しめる。また、シャープや三洋電機の3D対応モニターへの出力もサポートしているため、裸眼立体視も可能だ。

photo シャープの3D対応液晶ディスプレイ「LL-151D」に出力すると裸眼立体視も可能になる

 変換には、マーキュリーシステムが開発したアルゴリズムを使用する。同社の江良一成代表によると「通常の立体視技術では、視差を持たせるために、何台ものカメラを使って立体視用の映像コンテンツを作らなければならない。しかし、このSTBは画像の“深さ”を抽出し、視差を持つ2つの画像を作り出す」という。

 具体的には、まずソースとなる画像を解析し、背景や手前にある物体(オブジェクト)を区別する。各オブジェクトがどの程度、離れているかを計算し、1画素ごとに仮想的なZ軸(奥行き)を付与。各オブジェクトにX、Y、Zの各軸が付いたら、そのデータを人間の両目が持つ“視差”に換算して2枚の画像を生成する。これが、右目用、左目用の画像になる。

 あとは、赤青めがねや偏光眼鏡、シャッター眼鏡などで利用できるよう、フォーマットに合わせて2枚の画像を重ねて出力。動画についても同様で、「動画は、毎秒30枚の静止画として捉えている」(江良氏)。

 技術的なポイントは、オブジェクトの前後関係や距離を導き出す画像解析技術だが、同社はもともと航空写真や火星探査機が撮影した映像の3D化を手がける、いわば奥行き計算のプロフェッショナル。以前、話題になった3D液晶搭載携帯電話に使われていたのも同社の技術だ。

 2つめは、マーキュリーのアルゴリズムを毎秒30フレームの処理速度で実行できるASIC(特定用途向けIC)。マクニカのブリリアントテクノロジーカンパニーが手がけ、画像処理エンジン「Mercury 3D Technologies」と名付けている。チップ化により、量産時にはコストダウンが見込めるほか、将来的にはテレビやプロジェクターといった映像出力機器への搭載も期待できるはずだ。

宮崎作品は得意、「ちびまるこちゃん」は不得意

       1|2 次のページへ

Copyright© 2016 ITmedia, Inc. All Rights Reserved.