2月22日から25日までパシフィコ横浜で開催された「CP+2024」。数々のトピックスの中でも、そのデモがSNSで共有され「え? そんなことができるの?」と話題になったのが、キヤノンブースの「EOS画質3D体験」です。私が現地でみて、X(旧Twitter)で速報したデモの様子もすでに3万回以上見られています。
Xでは書ききれなかったこともたくさんあり、なおかつこれからリリースされる予定の技術でもあるので、ちゃんとまとめておこうという次第です。
カメラで3Dデータを作る技術というのは、これまでも様々なアプローチがありました。複数のカメラで撮影して合成する、主にVR撮影向けの2つレンズを搭載したレンズで撮影するなど(キヤノンもリリース済みであり、APS-C用のコンセプトモデルも今回出展した)。もちろん最新のスマホであれば、深度情報と組み合わせた空間写真を撮影可能なものもあります。
一方、今回のEOS画質3Dには以下のような特徴があります。
要するに、これらのEOSを使っている人であれば、記録画質をDPRAWにして、1枚写真を撮るだけで3Dデータが作れてしまうわけです。特にハードウエアの追加投資の必要なく、ソフトウェア処理だけでいいのです。
EOSでは、2013年の「デュアルピクセルCMOS AF」登場以降、実は深度情報を持っていました。ただ、デュアルピクセルCMOS AFのAF測距エリアは縦横それぞれ約80%。そのため、DPRAWで記録してもその情報は画像処理の「被写体の奥行き情報に基づく解像感の微調整」「カメラの撮影視点の微調整」「ゴーストの低減」などの調整に使ってきました。
しかし20年にEOS R5と共に登場した「デュアルピクセルCMOS AF II」では、AF測距エリア測距エリアが縦横ともに100%となり、全画素の深度情報を取得できるようになりました。そのため、これまで画像処理以外にも深度情報を使えるのではないかと模索してきたそうです。
また、以前はカメラ側でのみ保持してきたDPRAWの深度情報を外部に書き出すこともできるようになり、ソフトウェアで処理できることの幅が広がった点も大きかったそうです。
つまり、ハードウェアとしてのCMOSセンサーの進化に、ニーズとアイデアが加わって、今回のEOS画質3Dのデモとなったわけです。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR