検索
コラム

「ここは人間も失敗するしAIでもいいのでは」――生成AIの業務導入で外せない“幻覚”との付き合い方(3/3 ページ)

金融業界のようなミスが許されずコンプライアンスが厳しい業界では、生成AI導入には課題も多い。特に懸念されるのが生成AIの出力における「ハルシネーション(幻覚)」と呼ばれる現象だ。そんな中、保険金支払い査定業務にAI導入を決めた企業が表れた。その事例から生成AI活用の最前線を探る。

Share
Tweet
LINE
Hatena
前のページへ |       

「ハルシネーション」への新たな視点

 生成AIによって大幅な効率化が見通せる一方で、ハルシネーションへの対応は大きな課題だとされる。間違いが許されないという金融業界独特の慣習もあって、ウソをつくかもしれないという生成AIへの不信感は根強い。しかし、この課題に対する見方にも変化が出てきた。

 Finatextホールディングスグループであるナウキャストのデータ&AIソリューション事業責任者、片山燎平氏は次のように話す。「AIを変に期待せず、要素技術として正しく理解することが重要だ。AIをAGI(汎用人工知能)のように捉えるのではなく、『ここは人間も失敗するしAIでもいいのでは』という観点で導入ポイントを探ることが必要」


左からナウキャストの片山燎平氏、Finatextでこのシステムを考案し開発を進めている高橋祐太氏、FinatextでInspire全体を担当する山崎蓮馬氏

 これは、人間とAIを同等に扱う新しいアプローチだ。山崎氏も「人間が作業したとしても間違いは発生する。生成AIを使う際も同様の前提で考えている」と指摘する。その上で「間違いがあったとしても一定の価値があることを目指している」と述べた。

 この考え方にはグローバルと日本で差異がある部分でもある。山崎氏は、海外の事例を引き合いに出しこう説明する。「グローバルで見ると、生成AIを使った保険の自動査定やアンダーライティング(契約条件の設定)の自動化が進んでいる。日本では規制や顧客保護の観点から難しい面もあるが、一定のリスクを許容してサービスを作る姿勢も重要だ」

 日本の金融機関は従来、エラーに対して極めて厳格な姿勢を取ってきた。業界団体が金融業界に特化した「金融生成AI実務ハンドブック」を作成するなど、生成AIを特別視する流れもある。しかし、グローバルな競争の中で、この姿勢が革新の妨げになる可能性も指摘されている。

 ハルシネーションへの対応は、金融業界にとって避けて通れない課題だ。しかし、完璧を求めすぎるあまり、革新的なサービスの芽をつんでしまっては本末転倒だろう。人間にもミスはつきもの。その現実を踏まえつつ、AIの長所を生かす。そんなバランス感覚が、これからの金融サービスにも求められそうだ。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る