WWDC 2025基調講演から見るAppleの“進む道” 「UIデザインの刷新」と「AI機能の深化」が大きなテーマに本田雅一のクロスオーバーデジタル(2/4 ページ)

» 2025年06月10日 12時30分 公開
[本田雅一ITmedia]

「Apple Intelligence」は“深化”を追求

 Apple Intelligenceは、AppleのAI戦略の中核を成す包括的なシステムだ。OpenAIの「ChatGPT」やGoogleの「Gemini」は、デバイスの“外”にあるネットワークサービスであるのに対して、Apple Intelligenceはデバイスの中に集まる情報をAI技術で整理し、デバイスを通じて利便性を提供することに重きを置いている。

 今回のWWDCでは、Apple Intelligenceのアップデートもアナウンスされた。

Apple IntelligenceのAIモデルをサードパーティーに開放

 WWDC 2025における“目玉”の1つとして、アプリ開発者に対するApple Intelligenceで使っているAIモデルの開放が挙げられる。

 Apple Intelligenceは、複数のAIモデルを組み合わせているが、特に完全オンデバイスのモデルを利用できるようになることで「応答時間の削減」「オフライン動作の保証」「プライバシー保護」を実現できる。

 AIモデルは「Foundation Modelsフレームワーク」を通して利用可能で、開発者は自分のアプリにAI機能を統合しやすくなる。

サードパーティー サードパーティーアプリも「Foundation Modelsフレームワーク」を通してApple Intelligenceが利用するAIモデルにアクセスできるようになる

プライベートクラウドコンピューティングの利用

 WWDC 2024では、Apple Intelligenceの特徴として「プライベートクラウドコンピューティング」が発表された。これはより大規模なAIモデルが必要とされる場合に使われるもので、「暗号化」「匿名化」そして「一時的な処理」という3つの原則を徹底していることが特徴だ。

 ユーザーデータは端末上で暗号化され、分割してサーバに送られる。そして処理が終わると即座に削除される。この設計により、クラウドの計算能力を活用しつつも、プライバシーを完全に保護することが可能となっている。

 プライベートクラウドによるAI処理は、「Automation(オートメーション)」や新しい「Spotlight(スポットライト:検索機能)」から明示的に利用可能になる。

AI AppleはApple Intelligenceについて「プライバシー」を強調している。これは今も変わらない

定番アプリにも「AI機能」をより深く統合

 WWDC 2025で発表された各OSには、その場で逐次通訳/翻訳を行う「Live Translate(ライブ翻訳)」という機能が加わる。

 ライブ翻訳機能の実装に当たっては「音声認識」「自然言語処理」「音声合成」という複数のAI技術を統合し、各アプリの機能として実装している。

 例えば「Message(メッセージ)アプリ」では、会話スレッド全体の履歴から文脈を考慮した上で適切な翻訳を提供する。「FaceTimeアプリ」のリアルタイム翻訳キャプションは、オンデバイスならではの低レイテンシーを維持しながら、高精度な翻訳を動画コミュニケーションの中で実現する。そして「電話アプリ」での音声読み上げは、自分が発話した言葉を相手の言語でリピート発話する機能で(逆方向も可)、相手の話し方のニュアンスを文脈で保持しながら逐次通訳してくれる。

リアルタイム翻訳 OS標準のコミュニケーションアプリには「Live Translate」による逐次翻訳機能が実装される

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー