レビュー

「iPhone 16e」は“最もリーズナブル”な新時代へのステップだ! 実機を試して分かった従来モデルとの決定的な違い(4/5 ページ)

Appleから、次の時代――「Apple Intelligence」が当たり前となる際のベーシックモデルとなる「iPhone 16e」が発売された。実機を試して分かったことを林信行氏が整理した。

4月から始まる未来とApple Intelligenceへの対応

 ところで、このiPhone 16eで特筆すべきは、今どきの日常使いだけでなく数年後の日常使いにも対応していることだろう。それは、Apple Intelligenceへの対応だ。

 現在は英語圏のみ対応のApple Intelligenceだが、4月には日本語にも対応することが発表され、既に開発者向けのβ版の配布も始まった。

 これまで、あまり積極的に最新機能を使ってこなかった人の中には、Apple Intelligenceも使わないと思っている人がいるかもしれない。だが、Apple Intelligenceは、新たに追加される機能というよりかは、iPhoneの使い方の本質的な変化だと筆者は考えている。

advertisement

 例えば、何か調べ物をしたいとき、これまではSafariを起動して検索キーワードを打ち込んで探していたはずだ。ところが、Apple Intelligenceの時代には、Siriを使って声で(あるいはSiriがキーボードを使った文字入力にも対応するので打ち込んで)知りたいことを入力する。そこでSiriが答えられる内容だったらSiriが答え、Siriは答えられないけれどChatGPTなら答えられそうなら、ユーザーに確認の上でChatGPTに仕事を“外注”し、返って来た答えをSiriが教えてくれる。

 今流行している生成AIの多くは、ユーザーがリクエストすれば大抵の問いには答えてくれる汎用(はんよう)性の高い対話型のサービスになっているが、何でもできるということは、逆に何ができるのかが分かりにくく、初心者には使われにくいという難点がある。

 一方、Apple Intelligenceはさまざまな形でiPhoneの体験そのものに統合されている。

 例を挙げると、通知の内容を理解してユーザーにとってどれが大事かを判断し、優先順位をつけるというOS機能にも使われている。

 他にも、ワープロやメールなど文章入力機能のあるアプリで呼び出して使える作文ツール機能(文章を作成したり、校正したり、文体を変えたりできる)というアプリ共通機能としても組み込まれている。

 グループメールがたまってしまい、読んでいないやり取りを要約して提示してくれる機能のように、標準の「メール」アプリに組み込まれたApple Intelligenceもある。さらには絵を描画したり加工したりしてくれる、「Image Playground」というアプリの形でも提供されている。

 まるで、おでんの種のようにApple Intelligenceには多種多様な形態がある。

 AIがどんなことに使えそうかを社内で応用例を話し合って、「こんなことができそうだ」「それは、どのような形でユーザーに提供したら一番分かりやすく使ってもらえそうか」といった議論を重ねて設計されているのを感じる。非常に手間のかかったAI統合なのだ。

 そんなApple Intelligenceの機能の中でも、目玉となっているのが「Siriの音声操作」や「作文ツール」、そして「Visual Intelligence」という機能だ。


ユーザーがよく使う機能を割り当てられるアクションボタン。iPhone 16eでは、ここにVisual Intelligenceを割り当てることができる。Visual Intelligenceでは、テキストの要約や音声読み上げ/電話番号やメールアドレスの検出と連絡先への追加/言語間のテキスト翻訳/テキストのコピーやQRコードのスキャン/動植物に関する情報の表示/GoogleやChatGPTなど外部サービスとの連携などを行え、今後もさらにできることが増えそうだ

 Visual Intelligenceは、iPhone 16eではアクションボタンに割り当てて呼び出し、iPhone 16/16 Plus/16 Pro/16 Pro Maxではカメラコントロールを使って呼び出す。

 呼び出すとiPhoneがカメラのような状態になるので、これを使って以下のようなことができる。

  • 動植物の種類を調べる
  • カメラに写っている文章を読み上げたり、要約したりする
  • 撮影した名刺の名前やメールアドレス、電話番号を認識して必要なら連絡先に加える
  • ポスターやチラシの文章を翻訳する
  • Google 検索をする
  • ChatGPTを使ってより詳しい情報を得る

 もちろん、これは4月時点での機能で、今後はお店の情報を調べたり、観光名所を認識して情報を教えてくれたりといったことも可能になるだろう。

 よく見かける他社のAI統合は、OSの検索画面やアプリの画面に大規模言語モデルのチャット機能をくっつけただけのものが多い。

 しかしApple Intelligenceはそうではなく、ユーザーとさまざまなAI、さまざまなアプリを仕切る番頭のような立ち位置で、ユーザーからのリクエストを、どのAIあるいはどのアプリなら答えてくれそうかを判断して処理を割り振ったり、返って来た結果をユーザーに伝える設計になっている。

 現在は他社AIで連携しているのはChatGPTのみだが、GoogleのGeminiと連携するうわさも出始めている。また、現在iPhone用に提供されているルート検索アプリや、画像認識機能を備えた植物辞典といったアプリやアプリが提供している機能などもApple Intelligenceの外注先として活用される。

 それを考えると、あと数年するとiPhoneの使い方はアプリを起動して操作するモデルから、Apple Intelligenceを介してアプリ内のインテリジェンスを呼び出す形に徐々に移行していくことが想像できる。

 そして、これが数年後のiPhoneの日常的な使い方だとしたら、少なくとも5年間は使えることを目指しているiPhone 16eとしても、Apple Intelligenceに対応しないわけにはいかなかった、ということではないだろうか。

 ちなみに、Apple Intelligenceがすごいのは、ChatGPTへの外注も含めてこうした全てのAI処理がユーザーのプライバシーを一切危険にさらさずに行われていることだろう。だが、それについての説明はここでは割愛させてもらう。

Copyright © ITmedia, Inc. All Rights Reserved.