2016年発売の「iPhone 7 Plus」でAppleは初めて2眼アウトカメラに対応した。ただし、他社のように「同じ画角を2つ」ではなく「広角カメラと望遠カメラ」という多焦点化の方式を取った。その辺の話はまたいろいろ分岐するので今回は端折るが、Appleが搭載したとあらば、と他社もその後多焦点化に舵を切ることになり、そして現在のような多眼化に至る。
そういうわけで、業界として3Dにアプローチするのは12年越しの再チャレンジになる。
当時と今とで変化していることはもちろんある。一つは撮影側の高機能化だ。
当時は2つのカメラで撮影した画像をそのまま記録するのみだった。現在ではボケを作るために深度情報などの計算も発展し、スマホ撮影自体が機械学習計算による後処理を前提とした「コンピュテーショナル・フォトグラフィー」にもなったため、単純な記録時の2視点を超えて(どれくらいかは不明だが)スムーズに視点を変えられる可能性がある。
また、iPhoneのProシリーズならレーザー光を使った立体的な測距システム「LiDAR」もある。空間ビデオの実装にどれくらいLiDARが使われるか明らかではないものの、昔にはなかった「空間を捉えるセンサー」だ。
実際、複数視点の写真やLiDARを活用した「3Dスキャナーアプリ」というジャンルがiPhoneでは勃興している。関心のある物体の周りをLiDAR搭載iPhoneでぐるっと撮影すれば、簡単に3Dオブジェクトの出来上がり、という具合だ。小さな物体だけでなく、部屋の3D化もできるため、例えば不動産業者が案内用に物件を3Dスキャンしたデータを公開したりもしている。
そしてもう一つは閲覧側のデバイス進化だ。Vision Proに限らず、「HTC VIVE」や「Meta Quest」シリーズなど、VRヘッドセットがここ数年で普及した。3Dテレビよりも閲覧の自由度が高いのは言うまでもなく、3D空間を演算する計算性能も昔の比ではない。
ただ、だからといってAppleの空間ビデオがうまくいくかというと、いくつか課題もあるように感じる。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR