「ここは人間も失敗するしAIでもいいのでは」――生成AIの業務導入で外せない“幻覚”との付き合い方(3/3 ページ)
金融業界のようなミスが許されずコンプライアンスが厳しい業界では、生成AI導入には課題も多い。特に懸念されるのが生成AIの出力における「ハルシネーション(幻覚)」と呼ばれる現象だ。そんな中、保険金支払い査定業務にAI導入を決めた企業が表れた。その事例から生成AI活用の最前線を探る。
「ハルシネーション」への新たな視点
生成AIによって大幅な効率化が見通せる一方で、ハルシネーションへの対応は大きな課題だとされる。間違いが許されないという金融業界独特の慣習もあって、ウソをつくかもしれないという生成AIへの不信感は根強い。しかし、この課題に対する見方にも変化が出てきた。
Finatextホールディングスグループであるナウキャストのデータ&AIソリューション事業責任者、片山燎平氏は次のように話す。「AIを変に期待せず、要素技術として正しく理解することが重要だ。AIをAGI(汎用人工知能)のように捉えるのではなく、『ここは人間も失敗するしAIでもいいのでは』という観点で導入ポイントを探ることが必要」
これは、人間とAIを同等に扱う新しいアプローチだ。山崎氏も「人間が作業したとしても間違いは発生する。生成AIを使う際も同様の前提で考えている」と指摘する。その上で「間違いがあったとしても一定の価値があることを目指している」と述べた。
この考え方にはグローバルと日本で差異がある部分でもある。山崎氏は、海外の事例を引き合いに出しこう説明する。「グローバルで見ると、生成AIを使った保険の自動査定やアンダーライティング(契約条件の設定)の自動化が進んでいる。日本では規制や顧客保護の観点から難しい面もあるが、一定のリスクを許容してサービスを作る姿勢も重要だ」
日本の金融機関は従来、エラーに対して極めて厳格な姿勢を取ってきた。業界団体が金融業界に特化した「金融生成AI実務ハンドブック」を作成するなど、生成AIを特別視する流れもある。しかし、グローバルな競争の中で、この姿勢が革新の妨げになる可能性も指摘されている。
ハルシネーションへの対応は、金融業界にとって避けて通れない課題だ。しかし、完璧を求めすぎるあまり、革新的なサービスの芽をつんでしまっては本末転倒だろう。人間にもミスはつきもの。その現実を踏まえつつ、AIの長所を生かす。そんなバランス感覚が、これからの金融サービスにも求められそうだ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Google、AIの“幻覚”に対処する「DataGemma」をオープンモデルでリリース
Googleは、LLMが不正確な回答をするいわゆる“幻覚”を軽減するためのAIモデル「DataGemma」をオープンモデルでリリースした。「Data Commons」のデータとRIGとRAGの2つのアプローチでLLMの推論を強化する。
NICTとKDDI、ハルシネーションを抑えたLLMを共同研究
情報通信研究機構(NICT)とKDDIは7月1日、高性能な大規模言語モデル(LLM)を開発する共同研究を始めると発表した。NICTが蓄積してきたWebページなどの膨大なデータと、KDDIが開発してきたハルシネーション抑制技術などを組み合わせる。
Finatext林CEOの“スタートアップぶっちゃけトーク”さく裂 ITmedia NEWSが初の読者交流イベント、現地の活気は
ITmedia NEWS初の読者交流イベント、現地の活気は。編集部がレポートする。
採用業務は“社内ChatGPT”で効率化できるか? SIerが実証実験 「年間400時間の工数削減となる試算」
SIerのトランスコスモス・デジタル・テクノロジーは、大規模言語モデル「GPT-3.5 Turbo」を利用した採用業務に関する実証実験の結果を発表した。約1カ月半の間運用したところ、年間で約400時間の工数削減ができる試算と結論付けた。
パートナーが産後うつに──上場金融ベンチャーCEOが語る、スタートアップ経営と家庭の両立
スタートアップ経営者が、自らの過去の失敗を語る本企画。2021年12月に東証マザーズ上場を果たしたFinatextホールディングス(HD)の林良太CEOが話した失敗とは。
