「iPhone」「Apple Watch」「AirPods Pro」の“熟成”を選んだApple 現地で基調講演を見て得た実感本田雅一のクロスオーバーデジタル(2/5 ページ)

» 2022年09月10日 11時00分 公開
[本田雅一ITmedia]

写真の現像プロセスで画質を高める「Photonic Engine」

 普段のPC USER向けのiPhoneに関する記事なら、新モデルの概要を説明してからSoCの解説をする所なのだが、iPhone 14/14 Plusは「A15 Bionicチップ」で据え置き、iPhone 14 Pro/14 Pro Maxは新しい「A16 Bionicチップ」を搭載したものの、現時点では分かっていることが少ない。なので、今回は全モデルに共通する改善ポイントである「Photonic Engine」に注目したい。

 iPhoneのカメラ画質の向上は、SoCの性能向上に合わせて現像プロセスの改善を積み重ねてきたことが寄与している。中でも2019年モデル(iPhone 11)以降で利用できる「Deep Fusion」は、画質改善に大きく寄与する重要な改善だった。

 簡単にいうと、Deep Fusionは複数フレームの映像を画素単位で比較し、機械学習データを参照しつつベストな要素を組み合わせて1枚の写真として出力する機能だ。この際に使われる映像はいわゆる「現像処理」が済んだもので、センサーが出力するデータそのものではない。データの圧縮も行われている。

Deep Fusionその1
Deep Fusionその2 Deep Fusionは、シャッターを切る数フレーム前から映像を記録しておき、機械学習を併用しつつ合成してよりキレイな1枚の写真として出力するという機能だ。ただし、カメラセンサーが出力するデータそのものではなく、現像処理を行った後の映像に対して処理を行うようになっている

 Photonic Engineは、このDeep Fusionをさらに改良した技術だ。具体的には、従来は現像処理の済んだ映像に行っていた処理を、現像前のデータ(RAWデータ)に対して行うように変更された。より多くの情報が残った映像を使って、ディテールの拡張を行うようになるので、画質のさらなる改善を期待できる。

 ……のだが、Photonic Engineには「謎」もある。Appleがキーノートで示した図にもある通り、RAWデータは完全なカラー映像ではない。そのため、かなり特殊な処理を行う必要があると推察されるが、Appleはその詳細を明らかにしていない。

 また、Photonic Engineは今回発表された全ての新モデルに実装されているのだが、過去のiPhoneでは対応しないという。先に述べた通り、iPhone 14/14 PlusのSoCは2021年モデル(iPhone 13ファミリー)から据え置かれているため、非対応の理由をSoCに求めることも難しい。

 Photonic Engineへの対応の可否を分けているのは何なのか――RAWデータを迅速に合成できるようにするには、間違いなくハードウェアに何らかの工夫が必要である。当のAppleが情報を開示していないので想像するしかないのだが、筆者はカメラのCMOSセンサーに何らかのからくりがあるのではないかとにらんでいる。

 Appleによると、iPhone 14は低照度の撮影において新しいメインカメラ(広角アウトカメラ)で最大2.5倍、超広角アウトカメラとインカメラで最大2倍の品質改善を実現しているという(iPhone 13との比較)。「倍率で示されても良く分からない」という人も多いと思うが、理屈の上では画質の改善効果は大きいことは納得できるので、実際に撮り比べてみたい所である。

Photonic Engine Photonic Engineでは、Deep Fusionの合成処理をRAWデータ段階で行うようになっている。RAWデータは完全なカラーデータではないため、その合成処理をするにはハードウェアにおいて何らかの工夫が必要なはずだが、Appleはその詳細を明らかにしていない

メインカメラの変更にも注目!

 今回の新しいiPhoneでは、先代モデルと比べてカメラ自体のスペックも底上げされている。中でも、メインカメラの強化は注目すべきだろう。

 iPhone 14/14 Plusのメインカメラは画素数こそ約1200万画素に据え置かれているが、センサーサイズの大型化、レンズのF値の向上(F1.6→F1.5)などを行っている。スペック的にはiPhone 13 Pro/13 Pro Maxのそれと同等になった。

センサー iPhone 14/14 Plusのメインカメラは、iPhone 13 Pro/13 Pro Maxと同等のスペックになった

 iPhone 14/14 Pro Maxは、メインカメラに約4800万画素の「クアッドピクセルセンサー」を搭載した。画素数が歴代iPhoneで最大なのはもちろんだが、クアッドピクセルに対応するセンサーをiPhoneとして初めて採用したことも注目ポイントである。

 その名の通り、クアッドピクセルは隣接する4つの画素を1つの画素と見なして撮影する技術だ。iPhone 14 Pro/14 Pro Maxなら、4800万画素のセンサーを「巨大な1200万画素センサー」として使うことになる。

 「なぜ画素をまとめるの?」と思うかもしれないが、それは光をより多く集めるためである。照度の低い場所では、センサーに入力される光がどうしても少なくなる。隣接する4つの画素を1つにまとめると、画素当たりの入力光量が4倍となり、結果的に低照度環境における撮影品質が向上する。

ピクセル クアッドピクセルセンサーでは、周辺の4画素を1つにまとめることで撮影時の感度を高められる。暗所撮影時の明るさを改善する際に有効な技術である

 このセンサーは、普通の4800万画素センサーとしても利用できる。このことを生かして、ProRAW撮影モードでは全画素を使ったRAW撮影も可能だ。

 さらに、このセンサーの中央寄りの1200万画素分を使った「光学2倍望遠」撮影機能も搭載している。従来モデルの2x(2倍望遠)撮影とは異なり、センサーに写る映像を切り出す形となるので、従来よりも解像感の高いズーム撮影を行える。

RAW撮影 ProRAW撮影モードでは、4800万画素をフルに使ったRAW撮影も行える
2倍ズーム 4800万画素の中央寄り1200万画素を使った「光学2倍望遠」も利用できる。2x撮影自体は従来モデルでもできるが、より解像感の高いズーム撮影を行える。なお、光学2倍望遠は写真(静止画)だけでなく4K動画の撮影でも利用できる

 ただ、クアッドピクセルセンサーを使ったカメラの品質は、メーカーによるチューニングが品質を大きく左右する。Appleがこのセンサーをどう使いこなして、自社開発のSoCとどのように組み合わせているのか、強力な動画の手ブレ補正機能と合わせて実機で確認してみたい。

Quad Bayer Appleの説明を聞く限り、iPhone 14 Pro/14 Pro Maxのメインカメラではソニーセミコンダクタソリューションズが開発した「Quad Bayer Coding(QBC)」を適用したクアッドピクセルセンサーを使っているように思える。QBCは隣接する4つの画素に同じ色のカラーフィルターを適用できることが特徴だ(出典:ソニーセミコンダクタソリューションズ)

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー