AIを使うほど、チェックできなくなる 「監督のパラドックス」が示す危機集中連載「AIと人間の境界線」(1/3 ページ)

» 2026年02月27日 06時00分 公開
[斎藤健二ITmedia]

集中連載「AIと人間の境界線」:

第1回:AIは若者の武器か? データが示した“逆の答え” 

第2回:AIを使うほど、チェックできなくなる 「監督のパラドックス」が示す危機 今回はこちら

第3回:そのExcel、AIには読めていない

第4回:採用AIという「見えない裁判官」 その判定に理由はあるのか


 AIの出力は、必ずチェックしなければならない――。これはAI活用の大前提として、今や誰もが口にする。だが、ここで改めて問い直してみたい。そのチェック能力は、いったいどこから生まれるのか。

 2025年12月、Claude Codeで知られる米国のAI企業Anthropicは、自社エンジニア132人を対象とした調査結果を公表した。AIを最も深く使い込んでいるはずのエンジニアたちに、何が起きていたか。コーディングスキルの衰退である。それ自体は予想の範囲内だった。しかし、報告書が指摘する問題の本質は、その先にある連鎖にある。

AIの出力、誰がチェックする?(出典:ゲッティイメージズ)

 AIの出力を適切に評価するには、経験に裏打ちされた習熟が必要だ。しかし、AIを使い続けることで、その習熟に必要な実地経験が失われていく。Anthropicはこれを「監督のパラドックス」と呼んだ。使えば使うほど、チェックできなくなる。AIを開発している当の企業が、自社の社員を対象にその事実を確認した。

 クレジットカード会社・クレディセゾンの事例を見てみよう。現場の終礼を音声録音し、AIが議事録と翌日の申し送り事項を自動生成する。担当者が行うのは、最後のハルシネーションチェック(AIが事実に基づかない情報を生成する現象の確認)だけで、15分かかっていた作業が2〜3分に短縮された。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SaaS最新情報 by ITセレクトPR
あなたにおすすめの記事PR