2024年に正式採択された欧州連合(EU)の新たなAI規制法「EU AI法」は、AIシステムの安全性や透明性、倫理性、基本的人権の尊重を目的とする。EUでAIシステムを展開する全ての企業が対象となるため日本企業も対応が必要だ。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Centraleyesは2025年6月15日(現地時間)、欧州連合(EU)の新たなAI規制法「EU AI法」(EU Artificial Intelligence Act)について解説した。AIの利用が急速に拡大する中、安全性と透明性、倫理性の確保を目的としてEUが策定した法制度であり、既に正式に採択されている。
EU AI法は、AIに関する包括的な法的枠組みを定めたもので、2021年に欧州委員会によって提案され、2024年に正式採択された。EU域内で開発や利用、提供されるAIシステムの安全性、透明性、倫理性、基本的人権の尊重を確保することを目的としており、対象はEU域内の企業だけでなく、同地域でAIシステムやサービスを展開する全ての国際企業に及ぶ。
この法律はAIシステムを「受入れ不可能リスク」「高リスク」「限定リスク」「最小リスク」の4つに分類し、リスクの程度に応じて義務が異なる。特に高リスクに分類されるシステム(バイオメトリック認証、重要インフラ、雇用、法執行分野などで利用されるもの)については、技術文書の準備やEUデータベースへの登録、人による監視機構の設置など、厳格な対応が求められる。
高リスクのAIシステムに該当する場合、企業は市場投入前にシステムの種類に応じて自社または第三者機関による適合性評価を実施し、技術文書の整備、人間による監視体制の構築、バイアスの低減を含むデータガバナンス体制の確立などが必要になる。システムはEUの指定データベースに登録されなければならない。
限定的リスクのあるAIシステムには、ユーザーに対しAIとの対話を明示する義務や、合成コンテンツ(音声、映像など)の明示が求められる。最小リスクのシステムについては法的義務は課されないが、任意のベストプラクティスとして透明性やフィードバック機能の導入が推奨されている。
規制の施行に向けて企業には6〜36カ月の移行期間が設定されており、リスクの程度によって対応期限が異なる。監督は欧州人工知能庁(European Artificial Intelligence Office)が担い、加盟国の監督機関と連携して実施される。
同社は企業が法律を正確に理解し、確実に対応することが今後の競争力維持にもつながるとしている。
富士通PCの一部モデルで起動不能の不具合 海外研究者が原因を分析
NISTがゼロトラスト構築支援に向けた新ガイダンスを公開 19の実装例を収録
頼むからパスワード管理ソフトよ流行れ 筆者が激押しするワケ
病院のセキュリティ対策を阻む残酷な「カネ」の問題 業界構造から真因を探るCopyright © ITmedia, Inc. All Rights Reserved.