Apple Intelligenceは、単なるボイスアシスタントだったSiriを音声で操れるAIアシスタントへと進化させる。
従来のSiriは、利用に際して文脈を理解する能力がほとんどなかった。できることといえば、不足する情報を尋ねるぐらいの限定的なものだ。
しかし新しいSiriは、Apple Intelligenceによって長大かつ多量のトークンに対応できる。文脈の中で情報を解釈し、より優れた結果を出せるようになったのだ。また、デバイス上のさまざまなアプリの情報を組み合わせて、複合的に判断して回答を生成できるようにもなった。
例えば「娘が出演する演劇を見に行くには、何時に出発する必要があるか?」という質問に対して、従来ならば“娘”がそもそも誰なのかを特定させることが難しかった上、“娘”との約束をしたメールを探し出し、そのメールの後に予定変更がされていないのか――といったことを探る手段がなかった。
正しいメールを探し出しせたとしても、待ち合わせ場所や会場の正確な名称と場所を把握したり、チケットが確保されているのか確認したり、公演のスケジュールに変更はないのかを確かめたり……といったことも必要になるだろう。「マップでを使ってルート検索を行い、確実に到着するための出発時間を予測する」となると、あまりにハードルが高い。
しかし、Apple Intelligenceなら、それができる。iPhoneを始めとするAppleのデバイスで管理している情報をもとにしているからだ。しかも、ユーザーの「思い違い」にも対処してくれる。
例えばユーザは「メール」でやり取りしたと思い込んでいたが、実際は「メッセージ」を使ってSMSでやりとりしていたことも考えられる。テキストでのやりとりであれば、他にもいろいろと対応するアプリは存在する。そのほとんどは、スマホ内にデータを“保持”している。
そのことを生かして、スマホ上で管理されているあらゆるコミュニケーション手段に関わる情報をたどり、時系列で並べつつ“正しい”最新情報を探し出して、出発時間やルート提示してくれる。
無論、理想通りに機能するためには、幾つものハードルはあるだろうが、Appleがやろうとしている事は、誰もが理解できる。私たちが実際に困っていること、スマホが便利であると思いつつも不便と感じてしまう部分をどうにかしようとしているのだ。
デバイスで管理する情報を縦横無尽に活用しながら、アプリを横断しつつ、さまざまな情報を集約しAIがアドバイスをしてくれる――ここが機能面における最も重要なポイントだ。
さらに、デバイス上での処理からあふれる場合、デバイスがオンライン状態ならばクラウドAIでの処理を併用する形でシームレスに拡張する。通信が発生することになるが、巧妙な仕組みによって、プライバシーデータはネットに流出させることなく、より規模の大きな言語モデルを活用できるようになっている。
Appleの言語モデルは、デバイスの使いやすさや情報を的確に扱うような設計や学習が施されているという。例えば、Apple製品の使い方を聞いてみると、極めて丁寧に学習されているため、文脈を理解しながら機能の解説を行い、使い方を誘導してくれるという。
また文書生成や画像生成に関してもデバイスと統合され、例えば電子メールの文面の清書を依頼する際にも、その“作法”に応じた結果を出せるよう学習されているそうだ。プロンプト(テキスト)で指示しての生成に加え、自動的にいくつかの選択肢を提示しながら好みの生成結果を求められるようにユーザーインタフェース(UI)を工夫もしている。誰もが取り残されず、生成AIを使いこなせるようにする工夫だ。
Apple、生成AI「Apple Intelligence」発表 オンデバイス処理でSiriも大幅進化、ChatGPTとも連携
Microsoftが「新しいAI PC」の要件を発表 40TOPS以上のNPU搭載が“必須”に
AppleはAIのOS統合をどのようにデザインしたのか? 林信行の「Apple Intelligence」考
新OS「macOS Sequoia(セコイア)」、今秋リリース iPhoneミラーリングに対応
「Intel AI Summit Japan」にAI PCが勢ぞろい! 少し先のミライを見てきたCopyright © ITmedia, Inc. All Rights Reserved.