本記事の内容は、ブティックス(東京都港区)が8月19〜22日に開催した「バックオフィスDXPO東京’25【夏】」内で実施されたセミナー「AIエージェントがもたらすビジネス変革の現在地」の内容を要約したものです。
2022年11月にOpenAIがChatGPTを公開してから約3年。この間に生成AIは目覚ましい進化を遂げ、今や業務でのAI活用は当たり前になりつつある。
一方、AIをめぐる技術的な不確実性は依然として高く、インシデントも急増している。企業はAI活用だけを進めるのではなく、適切なリスクテイクを図る必要がある。AIの安全かつ持続可能な活用を目指し、AIガバナンスを定着させるための議論や活動を行うAIガバナンス協会理事の佐久間弘明氏は「企業経営におけるAIガバナンスの不在は、AI活用の遅れやインシデントの発生につながりかねません。AIガバナンスは企業の成長や社会的価値を守るためにも必須要素です」と力説する。これから求められるAIガバナンスの考え方とは。
佐久間氏によると、生成AI技術にはリスクにつながる3つの特性がある。1つ目が統計的な出力だ。生成AIはあくまで確率的に確からしい出力を行うので、誤った出力が混じる可能性がある。加えて、学習データに性能が依存するため、出力した内容に学習データの偏りを反映してしまうこともある。
2つ目が継続的な挙動の変化だ。生成AIは開発者によるアップデートに加え、学習によって継続的に挙動が変化する。そのため昨日と今日で性能が異なることもある。3つ目がブラックボックス性だ。生成AIは個々の出力について、「なぜこの出力をしたの?」という理由を説明ができない。そのため、責任の所在が曖昧(あいまい)になってしまうケースがある。
こうした生成AIの特性がもたらすリスクは、「セーフティリスク」と「セキュリティリスク」に分けられる。セーフティリスクは、意図せず発生するリスクで、精度の劣化やハルシネーションによる誤った出力などが該当する。セキュリティリスクは、悪意も持った人が意図的に偽情報を流布したり、ウイルスを拡散したりすることを指す。「悪意を持った人がいなくても起きるのがセーフティリスク、悪意を持ってAIが攻撃される、もしくは攻撃する人がAIを使うものがセキュリティリスクです」(佐久間氏)
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR注目記事ランキング