いま世界のさまざまな国や地域で、医療分野でAIを利用する際の規制やガイドライン類が整備されるようになっている。そのような例の一つとして、WHO(世界保健機関)が21年6月に発表した「健康のためのAIの倫理とガバナンス」を取り上げてみたい。
このガイドラインは、WHOが各分野の専門家を集めて審議した結果を文書化したもので、医療分野におけるAI利用に関する倫理的課題とリスク、AIが公益に資するようにするための原則をまとめている。また医療AIに対するガバナンスを確立するための一連の勧告も含まれている。
まずガイドラインは、医療AIの倫理的課題とリスクについて、公平性とバイアスの問題(人種や性別、年齢などによる差別が起こり得る)やプライバシーとセキュリティ、責任とアカウンタビリティ(AIの誤診や誤った治療提案に対する責任の所在が曖昧になる)など、先ほど挙げたような問題点を指摘。そしてこうしたリスクを避けるための原則を次のつの項目に整理している。
これらの原則を順守するために、データに関するガバナンスの強化、民間・公共部門を対象とした規制やルール類の整備、国際協力の促進、教育とトレーニングの提供といった具体的施策がまとめられている。
また同じくWHOは、このガイドライン発表後の生成AIの普及を受けて、24年1月に「大規模マルチモーダルモデルに関するガイダンス」という補足文書を発表している。
こちらも内容を簡単にまとめておくと、まずLMM(大規模マルチモーダルモデル)特有のリスクとして、不正確や不完全、誤った回答(いわゆるハルシネーションによる誤情報の提供)、データの質とバイアス(LMMのトレーニングに使用される医療データは高所得国のデータに偏る傾向が見られる)、インフォームド・コンセントの劣化(患者がLMMとやりとりすることで十分な理解と同意を得ることが難しくなる)、健康システム全体へのリスク(LMMの過大評価や不適切なモデルへの依存、サイバーセキュリティなど)といったものが挙げられている。
これらのリスクに対処するために、LMMの開発段階からの介入(データセットの透明性確保と定期的な更新、医療提供者・研究者・患者の開発プロセスへの参加など)、使うデータのデータ保護影響評価の実施、規制機関によるLMMと関連アプリケーションの評価と承認、展開後の監査と影響評価の実施、医療従事者へのLMMの使い方のトレーニングといった施策を提案している。
このようにWHOのガイドラインでは、医療分野におけるAI活用が適切になされるために、幅広い取り組みを行うことを主張している。逆に言えば、それだけ広範囲にわたる配慮を行わなければ、医療AIが重大なインシデントを引き起こす可能性を十分に抑制できないということだろう。医療AIの開発者には、それをやり抜くだけの意識が求められるのである。
もちろん医療分野でAIを利用すること自体が悪いということでも、それが必ず問題を引き起こすということでもない。適切に管理し利用すれば、他の分野と同様、AIが大きな価値をもたらしてくれることは間違いない。
WHOが発表しているようなガイドラインは、決して医療分野でのイノベーションを阻害するのではなく、それを促しつつ同時にリスクも抑制するものとして、開発者にとって文字通りの指針になっていくはずだ。その意味で、開発者はAI倫理に関する原理原則を心に留めると同時に、各方面から発表されるガイドライン類を注視することが求められる。
病院で生成AIはどう使う? フル活用する病院が明かす“5つの事例” 初めの一歩は「全職員へのiPhone配布」
AIと人間はどのように共存すべきか? 脳科学者・茂木健一郎さんの主張 「人間は人間にしか興味がない」
AI開発に黄色信号? 市場急成長で“学習用データ枯渇”の懸念 解決策といわれる「合成データ」とは何か
「著作権トラップ」――生成AIに作品を“無断盗用”されたか後から証明する方法 英ICLなどが開発
人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるかCopyright © ITmedia, Inc. All Rights Reserved.