Appleからの招待を受け「WWDC 24」を取材してきた。同イベントには2017年から参加しているが、そこから3年間はサンノゼ市街のコンベンションセンターで約6000人規模の開発者が集結し、次期OSソフトウェアテクノロジーに関する情報を集めるイベントだった。
20年から2年間新型コロナウイルス感染症のために休止した後、22年以降のKeynoteは感染症対策として、Appleの本社であるApple Parkのカフェの屋外広場を使ったアウトドア開催に切り替えられた。Keynote以外のセッションはオンラインとなり、WWDC 24では抽選で選ばれた1000人弱(公式の数字がないので筆者の目算だが)のエンジニアと、世界中から集まったメディアが現地入りした。
それはそうと、なんといっても24年の注目のテーマはApple Intelligenceの登場だろう。
生成AIという技術の登場で、これまでできなかった多くのことが可能になった。
特にChatGPTは、なじみのあるチャット形式だったのもあり「世界を変えた」といえるほど広く普及し、実際多くの成果を挙げている。また、いくつもの会社がLLM(大規模言語モデル)や、画像を処理できるAIモデルを巨大なサーバから提供している。
AppleはAI分野で出遅れたように見えたし、それゆえAppleがChatGPTなどに対抗するシステムを作り上げると思った人も多かったようだ。だから、Apple Intelligenceについて多くの人が誤解した。WWDCでの発表直後は、従来のモノサシの上で書かれた記事も複数見受けられた。
Appleによると、Apple Intelligenceは「パーソナルなインテリジェンス」と定義している。巨大なデータセンターで実行するサーバベースの生成AIとは違い、基本的にiPhoneやMacで採用されているApple Siliconで処理を行う。厳密にいえば、機械学習の処理を担う「Neural Engine」上で動作する、パーソナルに特化したオンデバイス(サーバを介さないデバイス単体で動作する)AIだ。
ちなみに、Neural Engineは17年発売のiPhone Xに初めて搭載されており、毎年のようにパフォーマンスを向上させてきた。もともとはFace IDや、画像認識、音声認識などに使われており、世代を重ねるごとに性能も上がっていったものの、筆者は「そこまでの性能って必要?」とも正直思っていた。Apple Intelligenceの登場でようやく「このために開発を続けていたのか!」と納得した次第だ。
Copyright © ITmedia, Inc. All Rights Reserved.