Apple Intelligenceは、AppleのAI戦略の中核を成す包括的なシステムだ。OpenAIの「ChatGPT」やGoogleの「Gemini」は、デバイスの“外”にあるネットワークサービスであるのに対して、Apple Intelligenceはデバイスの中に集まる情報をAI技術で整理し、デバイスを通じて利便性を提供することに重きを置いている。
今回のWWDCでは、Apple Intelligenceのアップデートもアナウンスされた。
WWDC 2025における“目玉”の1つとして、アプリ開発者に対するApple Intelligenceで使っているAIモデルの開放が挙げられる。
Apple Intelligenceは、複数のAIモデルを組み合わせているが、特に完全オンデバイスのモデルを利用できるようになることで「応答時間の削減」「オフライン動作の保証」「プライバシー保護」を実現できる。
AIモデルは「Foundation Modelsフレームワーク」を通して利用可能で、開発者は自分のアプリにAI機能を統合しやすくなる。
WWDC 2024では、Apple Intelligenceの特徴として「プライベートクラウドコンピューティング」が発表された。これはより大規模なAIモデルが必要とされる場合に使われるもので、「暗号化」「匿名化」そして「一時的な処理」という3つの原則を徹底していることが特徴だ。
ユーザーデータは端末上で暗号化され、分割してサーバに送られる。そして処理が終わると即座に削除される。この設計により、クラウドの計算能力を活用しつつも、プライバシーを完全に保護することが可能となっている。
プライベートクラウドによるAI処理は、「Automation(オートメーション)」や新しい「Spotlight(スポットライト:検索機能)」から明示的に利用可能になる。
WWDC 2025で発表された各OSには、その場で逐次通訳/翻訳を行う「Live Translate(ライブ翻訳)」という機能が加わる。
ライブ翻訳機能の実装に当たっては「音声認識」「自然言語処理」「音声合成」という複数のAI技術を統合し、各アプリの機能として実装している。
例えば「Message(メッセージ)アプリ」では、会話スレッド全体の履歴から文脈を考慮した上で適切な翻訳を提供する。「FaceTimeアプリ」のリアルタイム翻訳キャプションは、オンデバイスならではの低レイテンシーを維持しながら、高精度な翻訳を動画コミュニケーションの中で実現する。そして「電話アプリ」での音声読み上げは、自分が発話した言葉を相手の言語でリピート発話する機能で(逆方向も可)、相手の話し方のニュアンスを文脈で保持しながら逐次通訳してくれる。
Appleが全てのOSを共通のバージョン番号に統一
なぜ“まだ使えない”Apple Intelligenceを推すのか? 新製品から見えるAppleの狙い
“後出し”の生成AI「Apple Intelligence」がAppleの製品力を高める理由
ホテル予約、買い物──AIがWebサイトを人間のように操作する「Operator」は、AGI(汎用人工知能)への大きなステップだ 実際に試してみた
“暖かみのある会話”を実現――OpenAIの新言語モデル「GPT-4.5」は何が変わったのか?Copyright © ITmedia, Inc. All Rights Reserved.