2015年7月27日以前の記事
検索
コラム

採用AIという「見えない裁判官」 その判定に理由はあるのか集中連載「AIと人間の境界線」(3/3 ページ)

カフカ『審判』になぞらえ、採用AIの判定の不透明性を問う。EUのAI規制や国内事例を踏まえ、日本企業が直視すべき人事とAIの設計責任を考察する。

Share
Tweet
LINE
Hatena
-
前のページへ |       

「見えない裁判官」を自ら設計

 個人情報の入力を禁止することは、必要条件だ。しかし、それだけでは十分条件にはならない。求人票をAIが作成すれば、そこに用いられた語彙(ごい)が「理想の候補者像」を形づくる。

 評価基準をAIが整えたとしても、それが誰の価値観を再現しているのかという問いは残る。個人情報を渡さなくても、組織の歴史に蓄積された偏見はAIを通じて増幅し得る。「入力させない」という禁止の先に、AIと人事の関係をどう設計するかという課題がある。その答えは、まだどこの企業も持っていない。


採用AIは、候補者の判定を下し続ける(出典:ゲッティイメージズ)

 採用AIという「見えない裁判官」は、今この瞬間も候補者に判定を下し続けている。あなたの採用AIは、どの時代の、誰の価値観を学んだのか。合理的な組織とは、AIに判断を委ねる組織ではない。AIの判断を問い続ける仕組みを持つ組織だ。

 ヨーゼフ・Kは、裁判の理由を最後まで知らなかった。私たちは、その「見えない裁判官」を自ら設計しているのだ。

筆者プロフィール:斎藤健二

金融・Fintechジャーナリスト。2000年よりWebメディア運営に従事し、アイティメディア社にて複数媒体の創刊編集長を務めたほか、ビジネスメディアやねとらぼなどの創刊に携わる。2023年に独立し、ネット証券やネット銀行、仮想通貨業界などのネット金融のほか、Fintech業界の取材を続けている。


Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る