ITmedia NEWS > AI+ >
ITmedia AI+ AI活用のいまが分かる

ChatGPTなどLLMの弱点“ハルシネーション” 「GPTは要素技術だ。商用という意味では遠い」

» 2023年05月23日 15時10分 公開
[斎藤健二ITmedia]

 ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。

PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏(左)とPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏

 「GPTは要素技術だ。そのままでは商用という意味では遠い。検討すべき課題がある」。こう話すのはPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏だ。

 課題としては、精度、コスト、レスポンス速度、セキュリティなどが挙げられる。例えば、現在商用利用でほぼ唯一の選択肢となるOpenAIのGPT系APIは、上位のモデルになるほどコストがかかる。GPT-4モデルを使ったChatGPTの応答を見れば分かるとおり、速度も決して速いとはいえない。

すべてをLLMで解決するのではなく、あくまでLLMは要素技術の1つという立場

ハルシネーション(人工知能の幻覚)

 コストや精度という課題は、基本的に演算リソースによるもので、今後の半導体の進化によって自然と解決されていくものだろう。しかし精度については、解決は容易ではない。LLMが、堂々ともっともらしいウソをつくことはよく知られている。これは、ハルシネーション(人工知能の幻覚)と呼ばれLLMが根本的に抱える課題だ。

 PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏は「ハルシネーションは一定は抑えられるが100%は難しい」と話す。

ハルシネーション問題などを含めると、既存のタスクに最適化された言語モデルの用途は幅広いという

 商用利用において、ハルシネーションを防ぎ、精度を上げる手法はいくつかある。例えばFAQに相当する内容を持ったデータベースを事前に準備しておき、それをLLMがアクセスしやすいようにベクトル化した上でマッチさせる、データベースの内容を事後学習(ファインチューニング)させるなどだ。

 花塚氏は「ファインチューニングはコストがかかるので、外部のリソースを持ってきて、それをChatGPTに入力し、それをもとに回答する」形を解決策として挙げる。

既存AIモジュールとの組み合わせ、人が介入するUX

 とはいえ、現時点ではChatGPTの精度を向上させるよりも、既存のAIモジュールと組み合わせるほうが、精度、コスト、速度のバランスが取れるようだ。

 花塚氏は「LLMが得意とする部分を見極め、体験の中心ではなく、システム全体の1パーツとして利用する。既存モジュールを組み合わせて、コスト、精度、速度など最適なシステムを作るべき」だと指摘する。

 PKSHAグループでは、機械学習を用いたLLM以外のAIモジュールを多数保有しており、特化した用途においては、こうしたAIモジュールと組み合わせるほうが利点が大きいとしている。またLLMの入出力においても「人の確認や入力する情報をマスクするなど、人が介入するUXを検討すべきだ」(花塚氏)としている。

 今後の方向性として中島氏が指摘したのが、OpenAIのGPT以外のモデルの可能性だ。特に、米Metaが開発したLLaMAをベースに、世界各地で軽量LLMモデルの開発が進んでいる。また、オープンソースのLLMも各所から登場しており、画像生成AI同様、オープンソース起点で次の大きなイノベーションが起きる可能性もある。「テックジャイアントではなく、オープン系に期待したい」(中島氏)

Copyright © ITmedia, Inc. All Rights Reserved.