12月9日(現地時間)、EUの閣僚理事会と欧州議会は、2021年4月に提案され審議が続いてきたAI法案「EU AI Act」について、暫定的な政治合意に達したと発表した。今後、最終的な内容を詰め、その上で各国の承認を得るプロセスに入るため、具体的な規制がどのような形で決着するのかは予断を許さない。
また承認が得られても、AI法が施行・適用されるようになるのはまだ先で、26年中になると見られている。とはいえAIを包括的に規制する、強制力のあるルールがついに施行されるということで、AI法の成立はAIガバナンスにとってエポックメーキングな出来事といえるだろう。
その詳しい内容はこれから定義される(「欧州AI庁」という組織が設置され、各種基準の定義や運用を担う予定)予定だが、具体的な道が示されることで、AIリスクの管理が容易になると期待されている。
しかしこうしたガバナンス方法の提案は、本当に社会にとってプラスになっているのだろうか? そんな疑問を投げかけるリポートが発表され、注目を集めている。
リポート「Assessing and Improving AI Governance Tools」(AIガバナンスツールの評価と改善)は、プライバシーとデータガバナンスについて研究している非営利の調査団体である米World Privacy Forum(WPF)が発表したもので「AIガバナンスツール」を改善する必要性を訴える内容となっている。
リポートにおいてAIガバナンスツールとは「信頼できるAIを運用または実装する方法で、AIシステムとそのリスクをマッピング、測定、管理するための社会技術的ツール」と定義。中には実践的なガイダンス、運用上のフレームワーク、技術的なフレームワークなど、さまざまな種類がある。
リポートでは、こうしたツールや技術は、実際に「一般市民や規制当局に安心感を与えるものもある」としつつ、「有意義な監視や品質評価が欠けていることがあまりにも多い」と訴える。さらに「不完全または非効果的なAIガバナンスツールは、誤った信頼感を生み出し、意図しない問題を引き起こし、AIシステムの可能性を損なう恐れがある」と指摘している。
WPFはこのリポートの中で、政府や国際組織が作成・発表した18のAIガバナンスツール(NISTのAIマネジメントフレームワークや英国のAI権利章典草案など)を対象に、その内容を精査。その結果、ガバナンスツールの38%で、リスクの評価・測定方法に何らかの欠陥(手法や技術が十分なものではない、効果が見られないなど)を確認したという。
例えば、リポートの分析対象となった18のツールのうち7つにおいて、SHAP(SHapley Additive exPlanations)やLIME(Local Interpretable Model-agnostic Explanations)など、機械学習モデルを測定する手法が使用または推奨していた。しかしこれらの手法が正しく機能するのは、一部のAIシステムの測定に限られる。
適切でないモデルの評価に用いられれば、当然ながら正しい結果が出てくるはずもない。このような目的と手法、対象の不一致が他にも見られることを、リポートは指摘している。
現状では、AIガバナンスツール自体の有効性や正確性を測定したり、評価したりする取り組みはあまり行われていない。そもそもAIガバナンスそのものが新しい分野であり、まさに確立の途中であるため、検証が進んでいないのも当然だろう。
しかし「有効性の検証が伴わない限り、意図しない新たな問題が引き起こされたり、誤った信頼感を生まれたりする可能性がある」とWPFは訴える。AIリスクを正しく把握し、それに対処するための手段であるはずのAIガバナンスツールが、全く逆の効果をもたらす可能性があるわけだ。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR