ITmedia NEWS > 社会とIT >
ITmedia AI+ AI活用のいまが分かる

「AIガバナンス」の提供ツールは逆効果? 米調査団体「多くのガバナンスツールに欠陥がある」と指摘事例で学ぶAIガバナンス(1/2 ページ)

» 2023年12月26日 08時00分 公開
[小林啓倫ITmedia]

 12月9日(現地時間)、EUの閣僚理事会と欧州議会は、2021年4月に提案され審議が続いてきたAI法案「EU AI Act」について、暫定的な政治合意に達したと発表した。今後、最終的な内容を詰め、その上で各国の承認を得るプロセスに入るため、具体的な規制がどのような形で決着するのかは予断を許さない。

EU、AI規制法案で暫定合意

 また承認が得られても、AI法が施行・適用されるようになるのはまだ先で、26年中になると見られている。とはいえAIを包括的に規制する、強制力のあるルールがついに施行されるということで、AI法の成立はAIガバナンスにとってエポックメーキングな出来事といえるだろう。

 その詳しい内容はこれから定義される(「欧州AI庁」という組織が設置され、各種基準の定義や運用を担う予定)予定だが、具体的な道が示されることで、AIリスクの管理が容易になると期待されている。

 しかしこうしたガバナンス方法の提案は、本当に社会にとってプラスになっているのだろうか? そんな疑問を投げかけるリポートが発表され、注目を集めている。

「多くのガバナンスツールに欠陥がある」との指摘

 リポート「Assessing and Improving AI Governance Tools」(AIガバナンスツールの評価と改善)は、プライバシーとデータガバナンスについて研究している非営利の調査団体である米World Privacy Forum(WPF)が発表したもので「AIガバナンスツール」を改善する必要性を訴える内容となっている。

WPFが発表したリポート

 リポートにおいてAIガバナンスツールとは「信頼できるAIを運用または実装する方法で、AIシステムとそのリスクをマッピング、測定、管理するための社会技術的ツール」と定義。中には実践的なガイダンス、運用上のフレームワーク、技術的なフレームワークなど、さまざまな種類がある。

 リポートでは、こうしたツールや技術は、実際に「一般市民や規制当局に安心感を与えるものもある」としつつ、「有意義な監視や品質評価が欠けていることがあまりにも多い」と訴える。さらに「不完全または非効果的なAIガバナンスツールは、誤った信頼感を生み出し、意図しない問題を引き起こし、AIシステムの可能性を損なう恐れがある」と指摘している。

 WPFはこのリポートの中で、政府や国際組織が作成・発表した18のAIガバナンスツール(NISTのAIマネジメントフレームワーク英国のAI権利章典草案など)を対象に、その内容を精査。その結果、ガバナンスツールの38%で、リスクの評価・測定方法に何らかの欠陥(手法や技術が十分なものではない、効果が見られないなど)を確認したという。

 例えば、リポートの分析対象となった18のツールのうち7つにおいて、SHAP(SHapley Additive exPlanations)やLIME(Local Interpretable Model-agnostic Explanations)など、機械学習モデルを測定する手法が使用または推奨していた。しかしこれらの手法が正しく機能するのは、一部のAIシステムの測定に限られる。

 適切でないモデルの評価に用いられれば、当然ながら正しい結果が出てくるはずもない。このような目的と手法、対象の不一致が他にも見られることを、リポートは指摘している。

 現状では、AIガバナンスツール自体の有効性や正確性を測定したり、評価したりする取り組みはあまり行われていない。そもそもAIガバナンスそのものが新しい分野であり、まさに確立の途中であるため、検証が進んでいないのも当然だろう。

 しかし「有効性の検証が伴わない限り、意図しない新たな問題が引き起こされたり、誤った信頼感を生まれたりする可能性がある」とWPFは訴える。AIリスクを正しく把握し、それに対処するための手段であるはずのAIガバナンスツールが、全く逆の効果をもたらす可能性があるわけだ。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.