採用DXの裏で失われる“企業の誠実さ” 学生が抱く違和感の正体(2/3 ページ)
学生が企業の選考プロセスに参加するかどうかは、そこに「誠実さ」が感じられるかどうかに左右される傾向があるという。AI面接など、採用現場でのDXが進む中、学生は企業の“不誠実さ”を見抜いている。効率化と誠実さを両立させるために、企業にできることとは?
AIに選別されることへの違和感の正体
最近は学生自身も自己分析やESの作成に生成AIを利用し始めている。AIが身近なものになればなるほど、AI選考への抵抗感は消えていくだろう。だからといって、今の学生たちの違和感や抵抗感を軽んじてはいけない。その感覚の裏には、より深刻な懸念が隠れているからだ。
中央大学の平野晋教授は、2024年3月の論文で人事採用におけるAI利用に関して以下のようなリスクを指摘している(※2)。
※2:参考:「AI に不適合なアルゴリズム回避論:機械的な人事採用選別と自動化バイアス」
AIの判断が正しくない可能性
例えば、学習データに含まれる過去の偏見をAIが学習し、差別的な判定をしてしまうリスクがある。また、人間であれば気付くであろう個別の事情を考慮できず、有望な人材を不合格にしてしまうといった可能性もある。
AIに対する人間の「自動化バイアス」
人材の選別に関してAIを利用する場合、多くの企業は、AIの判定結果を人間がチェックする工程を挟んだり、最終の決定は人間が行う方法をとったりしている(先に挙げたソフトバンクやサッポロビールも、AIが合格判定を出さなかったESや面接動画は人事担当者が内容を確認し、最終的な合否の判断を行っている)。
しかし、システムが自動的に下した決定を人が過度に信頼してしまう「自動化バイアス」に陥りやすいことを、多くの研究者が指摘している。運用を続けるうちに担当者の緊張感が低下し、確認プロセスが形骸化していく恐れもある。
判断のブラックボックス化と説明責任の欠如
AIの判断プロセスが不透明であるため、候補者に合否の理由を説明できない可能性がある。平野教授は、人材採用に関わる判断は候補者の人生の大きな部分を左右し得るもので、その妥当性を立証する責任が果たされるべきだと主張している。
人間の尊厳に関わる倫理的な問題
AIの判断が適切なものであったとしても、個別の人間についての評価を機械に任せることは、その人の尊厳を損なうことになる可能性がある。例えば、その人が持つ特定の属性や特性によって、その企業にはふさわしくないとAIが自動的に判断して切り捨てるとしたら、人間を人間として扱っておらず、尊厳を損なっているというのが、平野教授の主張だ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「必要以上に頑張らない」は悪いこと? 熱意あった若者がやる気をなくすワケ
退職するわけではないけれど、仕事への熱意も職場への帰属意識も薄い――という状態が「静かな退職(Quiet Quitting)」が注目されている。日本においても、会社員の7割以上が静かな退職状態だという調査結果がある。やる気をもって入社した若者たちが静かな退職を選ぶことを防ぐにはどうしたら良いのか、考えてみよう。
経営者「出社回帰で生産性向上!」社員「むしろ逆!」──この深刻なギャップはなぜ生まれるのか
“出社回帰”に動く企業が増えている。「出社回帰」させたい企業と、リモートワークの権利を手放したくない社員。両者のすれ違いはなぜ起きるのか。
Netflixの大規模リストラはなぜ成功した? 日本企業には真似できない大きな差
パナソニックが1万人の人員削減を発表した。リストラは、された側だけでなく、されなかった側にも大きな傷を残す。今回は、米Netflix社の成功事例を参考に、日本企業のリストラとの向き合い方を考える。