「ChatGPT」アプリの登場で“生成AIとSiriの関係”はどう変わる? AppleのAI戦略を予想する松尾公也のAppleWIRE(2/3 ページ)

» 2023年06月03日 10時00分 公開
[松尾公也ITmedia]

Siriにできること、できないこと

 そんなわけで、ChatGPTとの比較対象にもされているSiriとはいったいどういうものなのか、改めて考えてみたい。

 現在のコンピュータの始祖であるAltoの名がPARC(Palo Alto Research Institute)から取られたように、Siriもまた、生誕の地であるSRIから取られたのだと思っていたのだが、実際にはSiriの創設者ダグ・キトラウス氏の発案で、スカンジナビアの女性の名前に由来するそうだ。結果的にSRI Instituteのアナグラムにはなっているのだが。

Siri SRIのSiri解説ページ

 2007年にSRIからスピンオフしたSiriをAppleが買収したのは2010年4月。2011年に発売されたiPhone 4Sで初めて搭載された。同種の音声アシスタントであるAmazon Alexaが2014年(日本では2017年)、Googleアシスタントが2016年だったのに比べると、だいぶ早い時期に生まれている。

 いずれも人間の話し言葉を認識し、その命令に適切な回答をしたり、何らかのアクションを起こしたりする。

 iPhone、Androidスマートフォンだけでなく、Amazon Echo、Google Nest Hub、Apple HomePodといったスマートスピーカー、さらにはApple WatchやWearOSデバイスなどのスマートウォッチにも音声アシスタントの機能は組み込まれている。

 しかし、われわれがそれらを活用しているかというと疑問だ。ラーメンタイマーや今の気温、簡単な計算をやらせるくらいなら日常的に使っているが、複雑な事柄に必要な回答を任せるほど信頼しているかというと、多くの場合、Noだ。

 その理由の1つに、Siriを含む音声アシスタントは人間の話者との長いラリーができないというのがある。候補を出してもらって、そのメリット、デメリットを説明させて、それをこちらが選んだら実行してもらう……そういったことは現状、どの音声アシスタントもできない。

 ChatGPTなら、それが必ずしも正しいとは限らないが、近いことができる。つまり、AppleがLLMをベースにしたチャットAIをSiriに組み込めば、今のSiriに不足しているものを補うことができ、多くのユーザーにとって最も身近なデバイスをチャットAIの端末にできることになるのではないか。

 Appleは果たしてそういうことをやろうとしているだろうか?

Personal Voiceがすごいんだけど、それだけじゃないでしょ?

 筆者は、少なくともWWDCで発表されるであろうiPhoneの次期OSであるiOS 17ではLLMが何らかの形で使えるようになるのではないかと期待している。

 そのヒントは、Appleが5月17日に発表したPersonal Voiceだ。iPhone、iPad、Macのアクセシビリティー新機能の一部として発表されたものだが、それにしてはすごすぎる。Personal Voiceは、自分の声を15分読み上げると、自分そっくりの声を読み上げの声としてText2Speech(Live Speech)に使うことができるというもの。これを端末側だけでできて、iPhoneの標準音声としてテキストメッセージと等価に使えるというところが、MicrosoftやGoogleの先行技術と比較しても画期的なのだ。

 実はチャットAI、画像生成と並んで音声もここ半年でAI化が進んでおり、例えば筆者は妻の歌声をAIで学習させて生成させることでAIアートの賞を取ったりもしている。そんなところにAppleはスルッと入ってきているのだ。

 つまり、AppleのAI技術は決して劣っているわけではない。こんなに面白い機能をiOS 17発表の本番であるWWDC23の前に出してくるというのは、基調講演ではもっとすごい、総合的なAI戦略を打ち出してくるのではないかと思うのだ。

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー

2024年