これまで挙げてきた例では、AIエージェントは何らかの情報を調べ、それを提示するだけだった。しかしAIエージェントが可能なのは検索だけではなく、他のアプリケーションやWebサービスと連携し、それを通じてさまざまな操作を行わせることも可能になると期待されている。
例えば「明日から2泊3日で福岡出張するので、移動手段と宿を押さえておいて」と一言命じておけば、関連するWebサイトにアクセスして情報収集した上で、飛行機のチケットとビジネスホテルを予約してくれるといった具合だ。
もちろん、AIの自律的な行動を大幅に許可するということは、エージェントがミスした際の被害もそれだけ大きくなることを意味する。ちょうど良い時間の便や、営業先のオフィスに近いホテルを押さえてくれたのは良いけれど、ファーストクラスやラグジュアリーホテルが予約されていて、会社の規定予算をオーバーしてしまうかもしれない。
あるいはペニシリンにアレルギーがある患者に対して、ペニシリンが含まれている薬品の投与を許可してしまうという、人間の生死に関わる間違いを犯してしまうかもしれない。1000億ドルの損失が発生するという前述のGartnerの警告も、大げさとはいえないだろう。
こうしたAIエージェントがもたらすリスクは、従来型のAIや、生成AIを企業内で導入する際のリスクに近いと考えられている。判断の正確性の低下、偏見や誤情報を含む判断の生成、著作物の生成による著作権侵害の発生といった具合だ。しかし従来のAIよりも自律性が高い、つまり人間によるチェックや指示の割合が低いのがAIエージェントである以上、損害の発生確率や規模はこれまでよりも大きくなる。
これまで「最後は人間の目でチェックする」ことでAIのリスク回避をしてきた企業は、AIエージェントが一般に普及する時代で「AIエージェントがもたらす効率化のメリットを享受したいが、事故発生のリスクが無視できないものになる」というジレンマに直面するだろう。
それを防ぐには、AIエージェント時代の前夜である現時点において、適切なAIガバナンスを構築しておくしかない。AIの自律的な判断をある程度まで許容しながら、一方で決定的なミスを回避する、あるいはミスが起きた場合のダメージを最小限に抑えるにはどうすれば良いのか。企業はいま、この問いに、真正面から向かい合う必要がある。
そうして生まれてくる新たなガバナンスは、人間とAI、両者がある程度まで自律的に行動することを前提としたものとなるだろう。それは今後の労働力減少時代において、スタンダードとなっていくはずだ。
Copyright © ITmedia, Inc. All Rights Reserved.