iPhone 11 Pro以来、Appleは写真を生成するプロセスについて、写真機的なアプローチを取り続ける形で進化させてきた。
ディテールをより詳細に深く描けるように、複数フレームを参照して時間軸方向にも展開するマルチタップ処理「Deep Fusion」を導入したり、新しい信号プロセスとして「Photonic Engine」を導入したり、Photonic Engineに対してユーザーがファインチューンを行える「フォトスタイル」を盛り込んだりと、新しいことに挑戦しながらも、写真文化に寄り添う考え方は一貫している。
とはいえ、良いコンセプトは必ずしも良い結果につながるとは限らない。冒頭に「異論はあるだろうが」と置いたのは、昔から写真文化に触れてきた人たちにとって、iPhoneのカメラが望ましい画質を実現していたかといえば、そうではない部分もあるからだ。
中でも、特に議論が大きく巻き起ったのは、iPhone XSから実装された「Smart HDR(スマートHDR)」だろう。この技術は複数フレームから露出情報を取得して集約した上で、被写体の領域ごとに異なる露出からディテールを取り出して合成する技術だ。
手動で露出ブラケット撮影を行い、それぞれのフレームから“おいしい”ところだけを取り出して合成するようなものだ。しかし、そのことが写真に不自然な結果をもたらすこともある。よって、SmartHDRを嫌う人も少なからずいる(機能をオフにすることも可能だが、デフォルトでは有効)。
筆者は毎年、ほぼ同じ場所でiPhoneの撮影テストを行っているが、iPhone 12 Proと最新のiPhone 15 Proでは、同じようなシーンでも、Smart HDRによる写りの風合いがかなり異なる。ひとまず、以下の写真を見比べてほしい。
iPhone 15 Proでの撮影時は、ちょうど天気が悪かった時期と重なってしまったため曇天となってしまった。それでも、見比べると初期(iPhone 12 Pro)と比べると、Smart HDRにありがちだった“あざとさ”が緩和されていることは分かる。
もちろん、普通のカメラで撮影した場合は、被写体と建物、空のディテールが全部出てくるなどあり得ないが、「フィルムから手動で紙に焼く際に、『覆い焼き』などの手法で調整した写真」といえなくもなかろう。
iPhoneが搭載する「Neural Engine」は、多様な情報から総合的に判別する処理に使われている。その能力が高まることで判別制度が高まり、結果的にファインチューンが進んでいる――そんなことなのだろう。
よくよく見てみると、iPhone 15 Proでもまだ完璧とは言いきれない。それでも、髪の毛周辺の分離は、より自然となっている。同じ考え方を貫いて改良を加え、そこからより改良を加えて……というプロセスを繰り返しを行っているのだ。
スマホがもはや毎年買い替えるものではないと考えるなら、iPhone 12 Proでの写真との比較は納得できるものではないだろうか。
Copyright © ITmedia, Inc. All Rights Reserved.