これから先は筆者の完全な妄想なのだが、それに近い、またはそれを超える発表があるのではないかと考えている。それがなかったとすればちょっとガッカリである。いくらApple製XRデバイスが登場するからといっても、AIに触れないではいられないだろう。
なぜなら、AIに関する状況でいえば、Appleはかなり追い込まれているからだ。まずWebブラウザ。
現在の主要ブラウザは、LLMとの緊密な連携を訴求している。その最たるものがMicrosoft Edgeだ。検索エンジンであるBingにOpenAIのGPTを組み込んだBing AIを搭載。同じくOpenAIの画像生成AIであるDALL-Eまで使えるようにしている。
GoogleのChromeは、まだBardと密結合しているわけではないが、Google検索との統合を含め、いずれそうなるのは間違いない。
Safariは検索エンジンとしてGoogleをデフォルトとしているが、Bingにもできる。しかし、BingのチャットAI機能を使おうとすると、Edgeをダウンロードさせようとしてくる。Edge、Chromeは自前のLLMを持っているが、Safariはどうするのよ、ということなのだ。
ここで考えられるのは3つ。まず、どこかのLLM/AIチャットと手を組んで、Safariのデフォルトにする。次に、ChatGPTかBardを選べるようにする。3つ目の選択肢は、自前のLLMを用意して、Siriと組み合わせるなりして使うことだ。
MicrosoftはOpenAIとの協業でCopilotというAI機能を自社のさまざまな製品に組み込もうとしている。GitHub、Visual Studio、Excel、Word、PowerPoint、Teams。Googleも同様に、自社のクラウドスイートにAI技術を搭載する計画を先日のGoogle I/Oで明らかにした。
Appleとしては、Numbers、Pages、Keynote、さらに開発環境としてのXcodeにAIによる支援機能を組み込まないと完全に時代に取り残されるだろう。
しかし、これらを実現したとしても、それは単に自社製品を競合他社と同レベルに引き上げるにすぎない。では何をすべきとAppleは考えるのか。チャットAIのためのフレームワークをAppleが提供し、デベロッパーとユーザーが安心してLLMなどの生成AIを使えるようにすることではないかと筆者は考える。
Appleは2017年からCore MLという機械学習ライブラリを提供しているが、さらにLLMに特化した、例えばChat MLとかCore Chatとかいったものを用意し、チャットAIを使ったアプリケーション開発を容易にするのではないかと妄想する。
Swiftを開発したクリス・ラトナー氏が先日発表した、「C言語のように高速なPythonスーパーセット」ことMojoをAppleがどう扱うのかも興味深い。
現在のAIの世界はNVIDIAのCUDAなしでは存在しえない、大量のGPUかスーパーコンピュータでないとLLMを作ることすらできないということになっていて、省電力で比較的高性能というAppleシリコンへの注目度は薄れている。AIをやるならNVIDIA積んだPC、という認識を変えられるほどの発表があるのかどうか。Personal Voiceのようにローカルデバイスだけでこれだけできますよ、という発表を期待したいところだ。
WWDC23まであと数日。われわれはかつてナレッジナビゲーターが見せてくれたような対応力を持ったSiriに会えるだろうか?
Copyright © ITmedia, Inc. All Rights Reserved.