2011年に発表され、iPhone 4Sに初めて搭載された音声パーソナルアシスタント「Siri」も、Apple Intelligenceによって大きく再設計される。
まずユーザーの問いかけの文脈をより自然に理解できるようになり、ユーザーが途中で言葉につまづいて言い直しても、連続的な会話として文脈の理解を維持できる。例えば「アラーム、いやタイマーを10分……やっぱり5分」と言っても、Siriは文脈を理解してタイマーを5分に設定できるという。
Appleは「膨大な製品知識にもとづいて、Apple製デバイスの機能や設定に関する何千もの質問に答えてくれるので、ユーザーは、画面収録の方法からWi-Fiパスワードの簡単な共有方法まで、あらゆることを学べる」としており、当初は“Apple製品に詳しいSiri”という印象になりそうだ。
また、Siriは今後の機能拡張が予定されている。近い将来にはChatGPTに接続され、より幅広い汎用(はんよう)的な知識を理解したり、回答したりできるようになるという。
Appleは今後数カ月、もしくは2024年内に、さらに次のような多くの機能をApple Intelligenceに追加すると予告している。
この中でも筆者が特に注目しているのが、最後のオンスクリーン認識だ。画面上の内容をもとに指示を出せるもので、例えばメッセージアプリで友達から住所が送られてきたとする。そこでSiriに「この住所を連絡先に追加して」と言えば、その後の細かな作業はSiriが代行してくれる。
さらに「下書きしたメールを○○さんと○○さんに送って」と頼めば、Siriがどのアプリに保存されたメールの下書きを指しているのかを理解して作業してくれる。
他にも「この写真を明るくして」と写真の補正を依頼してから、メモアプリに保存された特定にメモに保存するように指示できるなど、実際に使ってみるまでは本当にそんなことができるのか疑ってしまいそうな機能もApple Intelligenceには控えている。
これらの機能が実装されたら、iPhone/iPad/Macの使い勝手は劇的に変化するだろう。
Appleは、Apple Intelligenceを自社の幅広い製品で使えるようにしたい考えだ。対応するOSはiOS 18.1、iPadOS 18.1、macOS Sequoia 15.1で、対応機種はiPhone 15 Pro/Pro Max、iPhone 16シリーズ、M1チップ以降を搭載したiPad/Macとなっている。
基本的に多くのタスク処理はデバイス上で完結するが、より多くのAI処理性能が求められる場面では、Appleが構築した専用のクラウド「Private Cloud Compute」に接続して実行されるなど、必要に応じて演算能力を動的に拡張されるのがApple Intelligenceの特徴だ。
ちなみに本体とSiriの言語設定を英語にすると、日本で発売されたiPhoneでもApple Intelligenceが使えるようだ。Appleのプレスリリースにもそうした記載があるため、iOS 18.1がリリースされ次第、試してみるのもいいだろう。
「iPhone 16/16 Pro」の実機を速攻チェック 新搭載の「カメラコントロール」や“大きくなった”Proはどう?
「iPhone 16/16 Pro」は何が進化した? iPhone 15シリーズとスペックを比較する
「iPhone 16/16 Plus」発表、カメラボタンでAIを操作 新チップ「A18」搭載
「iPhone 16 Pro/16 Pro Max」発表 カメラ専用ボタン搭載、大画面化、4K120fps動画撮影も
iPhone 14/15を値下げ 「iPhone 16」シリーズ発表で変わった全iPhoneの価格一覧Copyright © ITmedia, Inc. All Rights Reserved.