AI活用のリスクとは? ビジネスで求められるAIガバナンスの条件

私たちの生活や仕事を効率的にするAI(人工知能)はさまざまなシーンで活用が模索される。ただAIにもリスクがある。AIで失敗しないために、DX時代のAIガバナンスはどうあるべきか。

» 2022年06月01日 08時00分 公開
[平 行男合同会社スクライブ]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 多様なシーンにAIが実装されビジネスに変革がもたらされている。一方でAIを利用するリスクが欧米を中心に活発に議論される。特にプライバシーに関わる領域は慎重なAIの活用が求められる。リスクに配慮して信頼できるAIを構築、運用するにはどのようなアプローチが必要か。AIのリスクやそのコントロールの在り方を、デロイト トーマツグループのAIに関する実践的研究組織「Deloitte AI Institute」所長、森 正弥氏が語った。

本記事は「NexTech Week 2022【春】AI・人工知能EXPO」での氏の講演「今こそ必要とされるAIガバナンス〜企業におけるAIの戦略的活用を支えるリスクコントロール〜」を基に編集部で再構成した。

プライバシーに関わるAIリスク

デロイト トーマツグループ 森 正弥氏(出典:講演より撮影)

 森氏はAIガバナンスを語る際に欠かせない2つのトピックに、「自動意思決定への規制」と「人間参加型AI」を挙げる。

 AIの役割は認識、応答・マッチング、予測、自動化など多岐にわたり、その応用範囲は広い。このうち人の「プライバシー・権利・機会」に関わるAI活用領域やそれらを組み込んだ自動審査(自動意思決定)については各国で問題が報告され、規制強化が進んでいる。住宅ローン審査に使われる与信AIなどが該当する。

図1 AIの各種応用と、人の権利に関わる適用(出典:講演より撮影)

 「AIの判断は客観的と思われがちですが、実際にはデータに含まれる人種や性別、年齢などのバイアス(偏見)を学習してしまうことがあります。バイアスのあるデータを基にAIが与信審査を行うと差別的な要因によって審査に落ちる結果が導かれてしまい、その結果をまたAIが学習し、差別的な判断を強固なものとしてしまいます。AIの意思決定が社会的弱者への差別的な対応を助長するという問題が米国で指摘されています」(森氏)

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ