採用DXの裏で失われる“企業の誠実さ” 学生が抱く違和感の正体(2/3 ページ)

» 2026年03月12日 06時00分 公開
[やつづかえりITmedia]

AIに選別されることへの違和感の正体

 最近は学生自身も自己分析やESの作成に生成AIを利用し始めている。AIが身近なものになればなるほど、AI選考への抵抗感は消えていくだろう。だからといって、今の学生たちの違和感や抵抗感を軽んじてはいけない。その感覚の裏には、より深刻な懸念が隠れているからだ。

 中央大学の平野晋教授は、2024年3月の論文で人事採用におけるAI利用に関して以下のようなリスクを指摘している(※2)。

※2:参考:「AI に不適合なアルゴリズム回避論:機械的な人事採用選別と自動化バイアス」

AIの判断が正しくない可能性

 例えば、学習データに含まれる過去の偏見をAIが学習し、差別的な判定をしてしまうリスクがある。また、人間であれば気付くであろう個別の事情を考慮できず、有望な人材を不合格にしてしまうといった可能性もある。

AIに対する人間の「自動化バイアス」

 人材の選別に関してAIを利用する場合、多くの企業は、AIの判定結果を人間がチェックする工程を挟んだり、最終の決定は人間が行う方法をとったりしている(先に挙げたソフトバンクやサッポロビールも、AIが合格判定を出さなかったESや面接動画は人事担当者が内容を確認し、最終的な合否の判断を行っている)。

 しかし、システムが自動的に下した決定を人が過度に信頼してしまう「自動化バイアス」に陥りやすいことを、多くの研究者が指摘している。運用を続けるうちに担当者の緊張感が低下し、確認プロセスが形骸化していく恐れもある。

判断のブラックボックス化と説明責任の欠如

 AIの判断プロセスが不透明であるため、候補者に合否の理由を説明できない可能性がある。平野教授は、人材採用に関わる判断は候補者の人生の大きな部分を左右し得るもので、その妥当性を立証する責任が果たされるべきだと主張している。

人間の尊厳に関わる倫理的な問題

 AIの判断が適切なものであったとしても、個別の人間についての評価を機械に任せることは、その人の尊厳を損なうことになる可能性がある。例えば、その人が持つ特定の属性や特性によって、その企業にはふさわしくないとAIが自動的に判断して切り捨てるとしたら、人間を人間として扱っておらず、尊厳を損なっているというのが、平野教授の主張だ。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SaaS最新情報 by ITセレクトPR
あなたにおすすめの記事PR