M4チップのNeural Engineは、M3チップと同じ16基構成だ。しかし、そのピークスループットは2倍を超える38TOPSに引き上げられている。
現時点において、Appleはスループットが向上した理由を明確にしておらず、そもそもどの演算精度で「38TOPS」の性能を発揮できるのかも説明していない。「謎多きNeural Engine」ともいえる。ただ、Appleの新しい純正アプリは、このNeural Engineをうまく活用し、極めて印象的な性能と機能を実現している。
詳細は実機をレビューした際に紹介したいが、音楽制作アプリの「Logic Pro」であれば、精度が驚くほどに高いAIによる自動伴奏機能が用意された。調整次第でまるで人間が演奏しているかのようなグルーブ感を伴う伴奏を付与できる。
さらに、仲間内でラフに録音したセッションを入力するだけで「ボーカル」「パーカッション」「ベース」「それ以外の楽器」といった感じで各トラックを驚くほどにクリーンに分離して、分割されたステムデータに仕立ててくれる。 自動伴奏機能と組み合わせれば、弾き語りで作った自作の曲に、まるでプロフェッショナルのようなバウンスを加えるなんてことも可能だ。
そのスピーディーさは、実際にデモンストレーションを見て、自分自身で試した人にしか理解できないかもしれない。
動画編集アプリ「Final Cut Pro」では、 動画中の「背景」と「被写体」の自動分離や、タイトルを始めとするエフェクトの挿入にAIが使われる。その際に、Neural Engineが力を発揮する。
よく似た機能は、他でも見たことがあるかもしれない。しかし、新しいiPad Proで動くFinal Cut Proでは、ほとんど待たされることなく、リアルタイムに実行される。そして、Apple Pencil Proを用いて自由にエフェクトを動画に加えていく様子は、明らかに従来のiPadの能力を超えるものだった。
昨今Intelが「AI PC」というキーワードを多用していることからも分かるように、最近はハードウェアの中にAI(厳密にはAI処理に特化した演算エンジン)を統合する動きが盛んだ。元をたどると、このトレンドはスマートフォン向けSoCから始まったもので、Appleはその“元祖”ともいえる。
Appleはその取り組みをiPhoneで行ってきたのだが、「AI」ではなく「機械学習(ML)」という言葉で表現してきた。その最も大きな目的は、冒頭でも少し触れたコンピューテーショナルフォトグラフィーの実現にあった。
一方、今回M4チップに搭載された新しいNeural Engineは、クリエイターが製作するイラスト、動画、音楽などの創作活動をやりたいと思うことを“プロアクティブ”に支援する――Appleのアプリを見ていると、そのようなことができるようにすべく、Neural Engineの性能基準を大幅に見直したように思える。
では、AppleはなぜM4チップをMacで採用しなかったのだろうか。
Copyright © ITmedia, Inc. All Rights Reserved.