iPhone 13シリーズの「シネマティック」モードが予想以上に面白かったのである。
Apple(に限らないけど)がその機能をどのくらい使ってほしいか、あるいはどのくらい力を入れているかはアプリを見ると分かる。何らかのメニューの中ではなく、写真、ビデオと並んだ位置に「シネマティック」があるのだ。「日常的に使ってね」って機能なのである。
iPhone 13のカメラで動画を撮ると、どうしてもパンフォーカス気味になる。ピントの合う範囲が広いので、至近距離の被写体を撮るときは背景がボケるけど、1mも離れた被写体を撮ると背景にまでざっくりピントが合ってしまう。
それが当たり前って感じで多くの人は慣れてしまっているのだけど、そこに一石を投じようというのがシネマティックモードだ。何しろ、ピントを合わせた被写体の前後がボケて「被写体が強調される」(見る人の視線をそこに誘導できる)のである。
試しに撮ってみたのがこちら。シネマティックモードで撮った3本の短いクリップを「iMovie」でつないでみたもの。
なんとなく分かってもらえたかと思う。人が大勢いても最初に捕まえた顔を追いかけてくれているし(改札から歩いてくるところ)、後ろ姿でもちゃんと捉えてくれるし、メインの被写体がいなくなると背景にフォーカスがすーっと移動している。
いったい何が起きているのか、どんなシーンで使えるのか、気になるよね。というわけでいろいろと試してみる。
実際にシネマティックオンとオフでどのくらい違うのか。シネマティックで撮った動画は後からボケ具合を調整できるので、それを利用して「一番ぼかしたもの」と「ぼけの処理を加えてないもの」を比較しよう。
シネマティックで撮った方が圧倒的に背景がきれいにぼけていて、人物に目が行く。シネマティックというと「映画っぽい映像を求めない人には不要」って思われそうだけど、これなら誰が使っても楽しそうじゃないか。
で、シネマティックモードでは何をやっているのか。よく、静止画の「ポートレート」モードの動画版という言い方をされる。静止画のポートレートモードでは2つのカメラ(超広角と広角、あるいは広角と望遠)の微妙な視差を利用してカメラと被写体の距離の情報を持ち、その深度情報を持って背景をぼかしている。
シネマティックも同じなのだけど、違うのはそれを「1秒間に30枚」分処理し、しかも常にフォーカスの対象がどれなのかを認識し、その上前景にもぼかし処理をいれているのだ(ポートレートモードでは背景のみ)。最新プロセッサのA15 Bionicパワーさく裂だ。
そしてこの機能が面白いのは「どこにピントを合わせるかもiPhoneまかせでOK」ってこと。顔に合わせるのはもちろんのこと、後ろ頭でもOK。
複数の人がいるときは自動的に切り替えてくれる。例えば、近くにいる後ろ頭の人より向こう側の顔が見えている人を優先。でもでは手前の人が振り返って後ろ頭になると、その向こうにいる人物に切り替わるという映画的な振る舞いをみせてくれる。
また、構図に人物が入ってくると即座に切り替わる。これがまた素早くて面白いので「電車を撮っていたらたまたま通りがかった人にピントを奪われた動画」を撮ってみた。フレームに人が入ってくる瞬間にはもうピントが切り替わっているという速さに注目。めっちゃ素早い。
被写体は人間じゃなくてもいい。今のiPhoneのカメラは犬や猫といった動物も認識してくれるわけで、シネマティックでも同様なのだ。ヤギでもOKである。これは3倍の望遠で撮ったもの。
シネマティックモードで使えるカメラは1xと3xのみ。視差を利用した深度情報が必要なので0.5xには未対応で、デジタルズームにも対応してない。この辺はポートレートモードと同じだ。せっかくなので、シネマティックヤギをどうぞ。何回かは鳴き声も入っています。
撮影時に画面をタップするだけでフォーカス相手を変えることもできる。写真アプリで「編集」を実行するとそのときどこにフォーカスが合っていたかを教えてくれるのでそれでチェックしてみたい。
まずは動画。これ、自動的に彼女の頭にフォーカスが来る。シャボン玉マシンを構えたところで機械をタップしてそこにフォーカスを移し、最後は背景の木に持っていって、シャボン玉の行方を強調するという流れだ。
これを写真アプリで見ると、その時点でどこにフォーカスが合っていたかが分かる。
しかもこのシネマティックモード、編集後にフォーカスを変えられる。
Copyright © ITmedia, Inc. All Rights Reserved.