検索
連載

新型「iPad Pro」がM3チップをスキップした理由 現地でM4チップ搭載モデルと「iPad Air」に触れて驚いたこと本田雅一のクロスオーバーデジタル(5/6 ページ)

Appleが、新しいiPad Proを発売した。従来モデルと比較すると、プロクリエイター向けであることを一層強調したスペックとなっているが、そこまで振り切れた背景には、新しいiPad Airの存在があるかもしれない。イギリス・ロンドンで開催されたハンズオンを踏まえて、その辺をひもといて行きたい。

Share
Tweet
LINE
Hatena

クリエイターを支えるために大幅改良された「Neural Engine」

 M4チップのNeural Engineは、M3チップと同じ16基構成だ。しかし、そのピークスループットは2倍を超える38TOPSに引き上げられている。

 現時点において、Appleはスループットが向上した理由を明確にしておらず、そもそもどの演算精度で「38TOPS」の性能を発揮できるのかも説明していない。「謎多きNeural Engine」ともいえる。ただ、Appleの新しい純正アプリは、このNeural Engineをうまく活用し、極めて印象的な性能と機能を実現している。

Neural Engine
M4チップのNeural Engineは、M3チップと変わらない16基構成だ。しかし、先述の通りピーク性能は16TOPSから38TOPSと2倍超に引き上げられている

 詳細は実機をレビューした際に紹介したいが、音楽制作アプリの「Logic Pro」であれば、精度が驚くほどに高いAIによる自動伴奏機能が用意された。調整次第でまるで人間が演奏しているかのようなグルーブ感を伴う伴奏を付与できる。

 さらに、仲間内でラフに録音したセッションを入力するだけで「ボーカル」「パーカッション」「ベース」「それ以外の楽器」といった感じで各トラックを驚くほどにクリーンに分離して、分割されたステムデータに仕立ててくれる。 自動伴奏機能と組み合わせれば、弾き語りで作った自作の曲に、まるでプロフェッショナルのようなバウンスを加えるなんてことも可能だ。

 そのスピーディーさは、実際にデモンストレーションを見て、自分自身で試した人にしか理解できないかもしれない。

Logic Pro
Logic Proでは、新しいNeural Engineを使った新機能を利用できる(しかも爆速で)

 動画編集アプリ「Final Cut Pro」では、 動画中の「背景」と「被写体」の自動分離や、タイトルを始めとするエフェクトの挿入にAIが使われる。その際に、Neural Engineが力を発揮する。

 よく似た機能は、他でも見たことがあるかもしれない。しかし、新しいiPad Proで動くFinal Cut Proでは、ほとんど待たされることなく、リアルタイムに実行される。そして、Apple Pencil Proを用いて自由にエフェクトを動画に加えていく様子は、明らかに従来のiPadの能力を超えるものだった。

カメラ
Final Cut Proといえば、iPhoneまたはiPadをリモート(テザー)カメラとして運用する「ライブマルチカム」機能にも注目したい。今回のイベントのハンズオンでは、iPhoneを使ったテザー撮影のデモンストレーションが行われていた

 昨今Intelが「AI PC」というキーワードを多用していることからも分かるように、最近はハードウェアの中にAI(厳密にはAI処理に特化した演算エンジン)を統合する動きが盛んだ。元をたどると、このトレンドはスマートフォン向けSoCから始まったもので、Appleはその“元祖”ともいえる。

 Appleはその取り組みをiPhoneで行ってきたのだが、「AI」ではなく「機械学習(ML)」という言葉で表現してきた。その最も大きな目的は、冒頭でも少し触れたコンピューテーショナルフォトグラフィーの実現にあった。

 一方、今回M4チップに搭載された新しいNeural Engineは、クリエイターが製作するイラスト、動画、音楽などの創作活動をやりたいと思うことを“プロアクティブ”に支援する――Appleのアプリを見ていると、そのようなことができるようにすべく、Neural Engineの性能基準を大幅に見直したように思える。

 では、AppleはなぜM4チップをMacで採用しなかったのだろうか。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る