ところで、このiPhone 16eで特筆すべきは、今どきの日常使いだけでなく数年後の日常使いにも対応していることだろう。それは、Apple Intelligenceへの対応だ。
現在は英語圏のみ対応のApple Intelligenceだが、4月には日本語にも対応することが発表され、既に開発者向けのβ版の配布も始まった。
これまで、あまり積極的に最新機能を使ってこなかった人の中には、Apple Intelligenceも使わないと思っている人がいるかもしれない。だが、Apple Intelligenceは、新たに追加される機能というよりかは、iPhoneの使い方の本質的な変化だと筆者は考えている。
例えば、何か調べ物をしたいとき、これまではSafariを起動して検索キーワードを打ち込んで探していたはずだ。ところが、Apple Intelligenceの時代には、Siriを使って声で(あるいはSiriがキーボードを使った文字入力にも対応するので打ち込んで)知りたいことを入力する。そこでSiriが答えられる内容だったらSiriが答え、Siriは答えられないけれどChatGPTなら答えられそうなら、ユーザーに確認の上でChatGPTに仕事を“外注”し、返って来た答えをSiriが教えてくれる。
今流行している生成AIの多くは、ユーザーがリクエストすれば大抵の問いには答えてくれる汎用(はんよう)性の高い対話型のサービスになっているが、何でもできるということは、逆に何ができるのかが分かりにくく、初心者には使われにくいという難点がある。
一方、Apple Intelligenceはさまざまな形でiPhoneの体験そのものに統合されている。
例を挙げると、通知の内容を理解してユーザーにとってどれが大事かを判断し、優先順位をつけるというOS機能にも使われている。
他にも、ワープロやメールなど文章入力機能のあるアプリで呼び出して使える作文ツール機能(文章を作成したり、校正したり、文体を変えたりできる)というアプリ共通機能としても組み込まれている。
グループメールがたまってしまい、読んでいないやり取りを要約して提示してくれる機能のように、標準の「メール」アプリに組み込まれたApple Intelligenceもある。さらには絵を描画したり加工したりしてくれる、「Image Playground」というアプリの形でも提供されている。
まるで、おでんの種のようにApple Intelligenceには多種多様な形態がある。
AIがどんなことに使えそうかを社内で応用例を話し合って、「こんなことができそうだ」「それは、どのような形でユーザーに提供したら一番分かりやすく使ってもらえそうか」といった議論を重ねて設計されているのを感じる。非常に手間のかかったAI統合なのだ。
そんなApple Intelligenceの機能の中でも、目玉となっているのが「Siriの音声操作」や「作文ツール」、そして「Visual Intelligence」という機能だ。
ユーザーがよく使う機能を割り当てられるアクションボタン。iPhone 16eでは、ここにVisual Intelligenceを割り当てることができる。Visual Intelligenceでは、テキストの要約や音声読み上げ/電話番号やメールアドレスの検出と連絡先への追加/言語間のテキスト翻訳/テキストのコピーやQRコードのスキャン/動植物に関する情報の表示/GoogleやChatGPTなど外部サービスとの連携などを行え、今後もさらにできることが増えそうだVisual Intelligenceは、iPhone 16eではアクションボタンに割り当てて呼び出し、iPhone 16/16 Plus/16 Pro/16 Pro Maxではカメラコントロールを使って呼び出す。
呼び出すとiPhoneがカメラのような状態になるので、これを使って以下のようなことができる。
もちろん、これは4月時点での機能で、今後はお店の情報を調べたり、観光名所を認識して情報を教えてくれたりといったことも可能になるだろう。
よく見かける他社のAI統合は、OSの検索画面やアプリの画面に大規模言語モデルのチャット機能をくっつけただけのものが多い。
しかしApple Intelligenceはそうではなく、ユーザーとさまざまなAI、さまざまなアプリを仕切る番頭のような立ち位置で、ユーザーからのリクエストを、どのAIあるいはどのアプリなら答えてくれそうかを判断して処理を割り振ったり、返って来た結果をユーザーに伝える設計になっている。
現在は他社AIで連携しているのはChatGPTのみだが、GoogleのGeminiと連携するうわさも出始めている。また、現在iPhone用に提供されているルート検索アプリや、画像認識機能を備えた植物辞典といったアプリやアプリが提供している機能などもApple Intelligenceの外注先として活用される。
それを考えると、あと数年するとiPhoneの使い方はアプリを起動して操作するモデルから、Apple Intelligenceを介してアプリ内のインテリジェンスを呼び出す形に徐々に移行していくことが想像できる。
そして、これが数年後のiPhoneの日常的な使い方だとしたら、少なくとも5年間は使えることを目指しているiPhone 16eとしても、Apple Intelligenceに対応しないわけにはいかなかった、ということではないだろうか。
ちなみに、Apple Intelligenceがすごいのは、ChatGPTへの外注も含めてこうした全てのAI処理がユーザーのプライバシーを一切危険にさらさずに行われていることだろう。だが、それについての説明はここでは割愛させてもらう。
「iPhone 16e」が“iPhoneの価値”を再定義する製品だと考えられる、4つのデザイン視点
「iPhone 16e」発表、A18チップ搭載、128GBモデルが9万9800円から 廉価なiPhone SEの“実質的な後継モデル”に
「Apple C1」は“新しい進化の出発点”となる“自社開発”モデム 「iPhone 16e」で初採用となった理由
AIの時代だからこそプライバシー問題を強く意識しよう パーソナルコンピュータ誕生の背景から今に至る歩み
“後出し”の生成AI「Apple Intelligence」がAppleの製品力を高める理由Copyright © ITmedia, Inc. All Rights Reserved.