欧州議会本会議が「AI規則案」を採択 違反した場合は制裁金も

欧州議会本会議がAI規則案を採択した。年内の合意と2024年以降の施行が予定されている。同規則案では、AIは4つのリスクカテゴリーに分類され、違反すると売り上げベースの罰金が課される。

» 2023年07月11日 09時00分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 PwCは2023年7月5日、欧州連合(EU)欧州議会本会議で採択された「AI(人工知能)規則案」について解説した。

 同規則案は2023年6月14日に採択されたもので、生成AIを含む包括的なAIの規制案だ。2023年内に合意され、2024年以降に施行が予定される。これに違反した場合、売り上げベースの制裁金が課される他、AI利用における各カテゴリーに応じた禁止や要求、義務の事項が定められている。欧州市場にAIを利用した製品投入を予定している企業は規制内容を理解し、対策を講じる必要がある。

PwCは欧州連合欧州議会本会議で採択された「AI規則案」について解説した(出典:PwCのWebサイト)

違反した場合は制裁金 AI規則案が定める4つのリスクカテゴリー

 PwCによると、AI規則案はリスクレベルを以下の4つのカテゴリーに分類し、各カテゴリーに対して禁止や要求、義務の事項を定めている。

  • 許容できないリスク
  • ハイリスク
  • 限定リスク
  • 最小リスク

 「許容できないリスク」は個人の権利や自由が侵害される恐れがあるため、利用が禁止されるAIのことだ。具体例としては、潜在意識への操作や社会的スコアリング、スクレイピングによる顔認証データベース化などが該当する。

 「ハイリスク」は既存の規制で第三者による適合性評価が求められている製品や、安全機能としてのAIが該当する。例としては、企業の採用活動関連で、ターゲットを絞る求人広告の掲載や応募のスクリーニング、フィルタリング、面接や試験での候補者評価といった採用選考での利用を意図したAIが挙げられる。

 「限定リスク」は人と自然に相互作用するAIや、感情推定や生体分類を実施するAI、人物など現実世界の実体に酷似したコンテンツ(ディープフェイクコンテンツ)を生成するAIが例として挙がっている。

 「最小リスク」は上記のいずれにも該当しないAIを指す。このカテゴリーには特に明確な義務はないが、欧州連合欧州議会本会議が定めた行動規範を順守することが奨励される。

 「ハイリスク」と「限定リスク」に関しては利用と要求事項がそれぞれ設けられており、定められた利用において要求事項を満たした上での運用が可能となる。「最小リスク」に関しては利用制限も要求制限の必須事項もない。

 なおAI規則案では、これら4つのモデルとは別の扱いで「ファウンデーションモデル」(基盤モデル)が解説されており、専用の要求事項が設けられている。

 AI規則案は、欧州連合圏に市場投入を予定されているAIが適用対象となる他、AIシステムによって生成されたアウトプットを欧州連合に提供する場合も適用対象となる点に注意が必要だ。サプライチェーンが複雑化する中、認識のないまま適用範囲にあるアウトプットを利用したことで規制対象となる可能性もある。

 同規則案施行から1年未満の間に市場に投入されるAIシステムは規制の対象外となる見込みだが、欧州市場にAIやその生成物の投入を検討している場合は早急に調査に取り組み、対策を検討することが望まれる。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ