EYに学ぶ、ジェネレーティブAIへのリスク対策 実現はまだ遠いかCIO Dive

EYはジェネレーティブAIに対して慎重な姿勢を取っている。実用化にはリスクを伴うと判断しているからだ。果敢に挑戦する企業もあるが、一般化に向けて超えなければならない壁が幾つもある。

» 2023年03月17日 08時00分 公開
[Lindsey WilkinsonCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 EYは数年前にOpenAIの基盤エンジン「GPT」でジェネレーティブAI(人工知能)の構築を始めたが、技術の限界と潜在的なバイアスを懸念し、実装には慎重な姿勢を保っている。EYでグローバルチーフイノベーションオフィサーを務めるジェフ・ウォン氏は「注目に値する素晴らしい技術だが、私たちはこれをビジネスシステムやプロセスに適用し、従業員がより速く、強力に、効率的に仕事ができるよう注意深く進めたい。クライアントや顧客に対して正しくあるためにも、やはり慎重でなければならない」と述べている。

EYがジェネレーティブAIに慎重な理由

 EYが慎重な姿勢を保っているのに対し、「ChatGPT」に対する注目を受け質問のブレーンストーミングや検索機能を強化したり(注1)(注2)、事実の生成にOpenAIの技術を導入したりする企業もある(注3)。一方、より慎重なアプローチを取る組織もある。

 EYにとって、ジェネレーティブAIの実験はまだ初期段階にある。AIチームはビジネス特有のタスクのためにデータセットを微調整する方法を批判的に捉えており、企業のクライアントを多数抱えるEYは、ジェネレーティブAIのプロジェクトを急がずAIのフレームワークとガイドラインに対して忠実だといえる。

 ウォン氏は「私たちは常にAIをどのように使うべきか考え、バイアスなどを排除できそうにないプロジェクトは引き受けないという独自のガイドラインを持っている」と話す。

 EYのAIプロジェクトの中心にはバイアスを排除できるようなコンセプトがある。同チームはAIを搭載した文書リーダーと分類エンジンを作成し、ウォン氏は「人物や経歴といった繊細な事項を分類するのではなく、領収書や税金などの事項を分類するために使っている。この点についてはかなり慎重に選定した」と語る。

 一方、不完全なシステムのリスクを進んで引き受ける企業もある。GoogleとMicrosoftの検索を巡る争いは、MicrosoftがOpenAIを搭載した新しい「Bing」を発表したときに再燃し、ChatGPTに似たチャット機能を搭載している(注4)。

 発表から最初の48時間で100万人がBingのプレビューのウェイティングリストに載り(注5)、より多くのユーザーがチャット機能を利用すると、Bingが悲しみを表したりユーザーに謝罪を求めたり、叱ったりするという報告が行われるようになった。

 こうしたトラブルに見舞われたのはMicrosoftだけではない。Googleの「Bard」は「太陽系の外で初めて写真を撮ったのはどの衛星か」という質問に対し不正確な情報を提供した(注6)。ロイター通信によると、Googleはこの失態を受け1000億ドルの市場価値を失った(注7)。

 AI技術は完璧ではない。テックリーダーにとって生成されたコンテンツで意思決定が行われるビジネスユースケースではジェネレーティブAIが与える情報の正確性と信頼性を確保することが重要だ。こうしたシステムが一般的になるにはまだまだやるべきことがある(注8)。

© Industry Dive. All rights reserved.

注目のテーマ