ついにApple全デバイスが同じ操作体系に 共通の“皮膚”と“神経”を取り入れて新たな時代へ踏み出したAppleWWDC25(2/4 ページ)

» 2025年06月11日 00時00分 公開
[林信行ITmedia]

Apple Intelligence:OSを貫く“神経系”の進化

Apple WWDC25 2026 OS バージョン デザイン言語 アップル Liquid Glass Tahoe メッセージアプリでのライブ翻訳機能
iPhoneを使ったライブ翻訳
Apple WWDC25 2026 OS バージョン デザイン言語 アップル Liquid Glass Tahoe Visual Intelligenceを使って、イベントチラシのスクリーンショットからカレンダーのイベントを作成したところ

 Liquid Glassが新しいApple OSの共通の「皮膚」だとすれば、その下でシステム全体に知性を宿らせる「神経系」と言えるのが、さらなる進化を遂げた「Apple Intelligence」だ。ユーザーの作業を中断させて対話を求めるタイプのAIではなく、OSの機能と深く融合し、私たちが日々行っている操作を、より賢く、より効率的に進化させる縁の下の力持ちのような存在だ。

 最近の対話型AIは確かにユーザーの意図を正確に読み取り、あらゆるタイプの情報を生成してくれるが、例えば書いた文章を校正させたり、文章のスタイルを変更しようとしたりするといった場合、いちいち文章をコピー&ペーストしてどのようにしたいのかをプロンプトとして打ち込む必要がある。

 言葉の通じない外国人とチャットをする際も、確かにAIを使って翻訳はできるが、いちいち相手の言葉をコピー&ペーストして「翻訳して」とプロンプトを打ち込む必要がある。

 Apple Intelligenceは、2024年の登場以来、それとは異なるユーザーが作業をするその場に組み込まれたプロンプト不要のインテリジェンスを目指してきた。

 文章スタイルの変更はワープロ画面でテキストを選んだ後、コンテクストメニューから「作文ツール」を呼び出し、「フレンドリー」「プロフェッショナル」などあらかじめボタンとして用意された文章スタイルをクリックして選択。表示された内容に満足したら、ワープロ上の文章をそれに差し替えるといった形で使う。

 一方、言葉の通じない相手とのチャットや、FaceTimeのビデオ通話でも新たに追加された「ライブ翻訳」というApple Intelligenceを使えば、文字でのやり取りなら翻訳文が一緒に表示されるようになり、ビデオ通話などでは相手が話し終わると、逐次通訳をしてくれる。

 どんなことでも頼める代わりに操作が面倒だったり、たまに偽情報が紛れ込んでいたりするので真偽を見極めながら利用する他社のAIとは異なり、AIの使い方として最も間違いがなく失敗しない用途を厳選して、丁寧に機能という形にまで落とし込んだのがデザインの会社、AppleのApple Intelligenceだ。

 おでんの種のようにいろいろな種類のインテリジェンスの集合体で、「これがApple Intelligence」と言える顔がないために実態の把握がしにくい難点は確かにある。だが、技術が苦手な人にも優しいデジタルツールを提供する会社のAI戦略としては極めて正しいと筆者は思う。

 ライブ翻訳と並んで重宝しそうなのが、画面上に表示されている写真などについて、さまざまな情報を教えてくれるビジュアルインテリジェンス機能の拡張だ。従来はカメラで撮影した書類の文字をテキストとして取り込んだり、植物の名前を調べたり、Googleでイメージ検索したりするための機能だったが、新たにスクリーンショットを撮る操作を行うと、開いていたWebページに表示されていたランプの部分を指でなぞって、その商品をネットで探し出したりできる。

 スクリーンショットを通して利用するビジュアルインテリジェンスで特に重宝しそうなのが、ソーシャルメディアに投稿されたイベントのチラシやポスターのイメージから日時や場所、イベント名などの情報を取り出し、カレンダーの予定を作成してしまう機能だろう。

 個人的には、これまでやや強制的に3種類のアクの強すぎる絵柄の利用を強いていたImage Playgroundが進化して、ChatGPTを使っての絵の描画もできるようになったので、その点にも期待している。

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー