ただ、処理能力以上に大きいのは「どのような価値をユーザーに提供するのか」という点だ。
翻訳や要約、画像や音声の認識にある種の検索など、AIがアシスタントとして働く「機能」で言えば、どのメーカーも、やっていること自体はそこまで大きな違いがない。オンデバイスAIによるパーソナルアシスタント路線が本当に生活の中で役立つのか、懐疑的な声もある。その点は、Apple Intelligenceも同様だ。
ただ、同じような機能であっても、ユーザーインタフェースや機能それぞれの連携の在り方によって、「ユーザーの感じる価値」は変わるものだ。
例えばiPhone 16シリーズでは、新しく「カメラコントロール」というボタンが組み込まれた。シンプルに言えば「押すとカメラアプリが起動する」「シャッターを切れる」ボタンだ。
さらにこのボタンは、Apple Intelligenceへ写真を送って活用する「Visual Intelligence」機能でも使える。iPhoneを持ちカメラコントロールを「クリックして長押し」する操作で、周囲の情報を活用する。機能としてはAndroidの「Googleレンズ」に近いが、プレゼンテーションでの操作を見る限り、より直感性は高い。
デバイスの中には、今まで以上にさまざまなAIモデルが組み込まれていくことになる。そこで「オンデバイスとクラウド」の切り分けがあったり、アプリによって機能が分かれたりすると使いづらくなっていく。Appleはその点を、どこまで統合し、わかりやすく提示できるのだろうか。ハードの発表だけでは見通すのが難しく、「日本語対応」という壁もある。
「AppleはUIの会社」と言われる。
もちろん、他社もUI開発を軽く見ているわけではない。だが、Appleには同社製品同士の連携やハードとOSの垂直統合など、UIを改善する上で有利な点が多々あるのもまた事実だ。苛烈なAI競争の中で、Apple Intelligenceはどこまで「他と違うAI」になれるだろうか。
「iPhone 16」をさっそくハンズオン 「Apple Watch S10」「AirPods 4」実機も写真でチェック
もう全部見た? Apple新ハードまとめ 新型iPhoneやAirPodsなど
iPhone 16シリーズ共通の新機能「カメラコントロール」とは? カメラだけじゃない、その使い道
「iPhone 16」発表 A18チップで「Apple Intelligence」をサポート 空間ビデオも撮影可能に
米Appleの独自AI「Apple Intelligence」、英語のβ版を10月に提供 日本語対応は2025年以降に【詳細追記】Copyright © ITmedia, Inc. All Rights Reserved.