採用AIという「見えない裁判官」 その判定に理由はあるのか集中連載「AIと人間の境界線」(2/3 ページ)

» 2026年03月03日 08時00分 公開
[斎藤健二ITmedia]

AIに何を学ばせているのか

 欧州はこの問いに、法律という形で答えを出した。EU AI Act(欧州AI規則)は、EUが2024年8月に施行した世界初の包括的なAI規制法だ。AIをリスクに応じて分類し、高リスクな用途に厳格な義務を課す。採用面接で応募者の表情や声のトーンを解析する「感情認識AI」は、職場での利用が原則禁止とされ、この規定は2025年2月からすでに適用されている。

 さらに、採用・人事評価・労働者管理に用いるAIは「ハイリスク」に分類され、2026年8月の全面適用以降、企業は透明性の確保、人間による監督、差別防止の仕組みを義務付けられる。違反した場合の制裁は、年間の全世界売上高の3%または1500万ユーロのいずれか高いほうである。

AIに何を学ばせているのか(出典:ゲッティイメージズ)

 だがこの規制の核心は、罰金への恐怖ではない。欧州が問うているのは、AIに何を学ばせているかという意思決定の問題だ。

 過去の採用実績をそのまま学習データにすれば、AIは過去の価値観を再生産する。「公平な判定」を装いながら、実際には特定の属性や出身、話し方を体系的に排除し続ける機械ができ上がる。日本企業が問うべきなのは、規制への対応ではない。欧州がなぜこの法律を制定したのか。問うべきは、その理由そのものである。

 では、日本企業はこの問いとどう向き合っているか。生成AIの全社展開を推進するクレディセゾンCTO・小野和俊氏に聞くと、人事領域については意外なほど慎重な言葉が返ってきた。

 「まずは触ってみてほしい」と社員にAI利用を推奨し、さまざまな種類のAIを社員向けに提供している。だが、人事については「採用や評価など、EUのAI法でセンシティブと分類される分野では、生成AIを気軽に使ってはいけない」と語る。個人情報の入力を全面禁止し、履歴書の要約も、評価面談へのAI関与も、制度として遮断している。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SaaS最新情報 by ITセレクトPR
あなたにおすすめの記事PR