日本企業にも無関係ではない「EU AI法」 その中身を解説セキュリティニュースアラート

2024年に正式採択された欧州連合(EU)の新たなAI規制法「EU AI法」は、AIシステムの安全性や透明性、倫理性、基本的人権の尊重を目的とする。EUでAIシステムを展開する全ての企業が対象となるため日本企業も対応が必要だ。

» 2025年06月18日 08時00分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 Centraleyesは2025年6月15日(現地時間)、欧州連合(EU)の新たなAI規制法「EU AI法」(EU Artificial Intelligence Act)について解説した。AIの利用が急速に拡大する中、安全性と透明性、倫理性の確保を目的としてEUが策定した法制度であり、既に正式に採択されている。

日本企業にも無関係ではない「EU AI法」を知ろう

 EU AI法は、AIに関する包括的な法的枠組みを定めたもので、2021年に欧州委員会によって提案され、2024年に正式採択された。EU域内で開発や利用、提供されるAIシステムの安全性、透明性、倫理性、基本的人権の尊重を確保することを目的としており、対象はEU域内の企業だけでなく、同地域でAIシステムやサービスを展開する全ての国際企業に及ぶ。

 この法律はAIシステムを「受入れ不可能リスク」「高リスク」「限定リスク」「最小リスク」の4つに分類し、リスクの程度に応じて義務が異なる。特に高リスクに分類されるシステム(バイオメトリック認証、重要インフラ、雇用、法執行分野などで利用されるもの)については、技術文書の準備やEUデータベースへの登録、人による監視機構の設置など、厳格な対応が求められる。

 高リスクのAIシステムに該当する場合、企業は市場投入前にシステムの種類に応じて自社または第三者機関による適合性評価を実施し、技術文書の整備、人間による監視体制の構築、バイアスの低減を含むデータガバナンス体制の確立などが必要になる。システムはEUの指定データベースに登録されなければならない。

 限定的リスクのあるAIシステムには、ユーザーに対しAIとの対話を明示する義務や、合成コンテンツ(音声、映像など)の明示が求められる。最小リスクのシステムについては法的義務は課されないが、任意のベストプラクティスとして透明性やフィードバック機能の導入が推奨されている。

 規制の施行に向けて企業には6〜36カ月の移行期間が設定されており、リスクの程度によって対応期限が異なる。監督は欧州人工知能庁(European Artificial Intelligence Office)が担い、加盟国の監督機関と連携して実施される。

 同社は企業が法律を正確に理解し、確実に対応することが今後の競争力維持にもつながるとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR