メディア
ITmedia AI+ >

物議を醸した「顔写真から自閉症を判別するアプリ」 医療分野でのAI活用に求められる倫理観を考える(4/4 ページ)

» 2024年08月14日 12時00分 公開
[小林啓倫ITmedia]
前のページへ 1|2|3|4       

WHOが定めた“健康のためのAI倫理”

 いま世界のさまざまな国や地域で、医療分野でAIを利用する際の規制やガイドライン類が整備されるようになっている。そのような例の一つとして、WHO(世界保健機関)が21年6月に発表した「健康のためのAIの倫理とガバナンス」を取り上げてみたい。

WHOの「健康のためのAIの倫理とガバナンス」

 このガイドラインは、WHOが各分野の専門家を集めて審議した結果を文書化したもので、医療分野におけるAI利用に関する倫理的課題とリスク、AIが公益に資するようにするための原則をまとめている。また医療AIに対するガバナンスを確立するための一連の勧告も含まれている。

 まずガイドラインは、医療AIの倫理的課題とリスクについて、公平性とバイアスの問題(人種や性別、年齢などによる差別が起こり得る)やプライバシーとセキュリティ、責任とアカウンタビリティ(AIの誤診や誤った治療提案に対する責任の所在が曖昧になる)など、先ほど挙げたような問題点を指摘。そしてこうしたリスクを避けるための原則を次のつの項目に整理している。

  1. 人間の自律性の保護:AIの利用が人間の意思決定を侵害しないようにし、医療システムや医療に関する判断は、人間がコントロールし続けることを確保する。
  2. 人間の福祉、安全性、公的利益の促進:AI技術が人々に害を及ぼさないようにし、安全性、精度、有効性が保証された使用ケースで適切に利用されるようにする。
  3. 透明性、説明可能性、理解可能性の確保:AIの判断が、開発者や医療専門家、患者、利用者、規制者に対して理解可能なものになること、そして十分な情報が公開され、使用前に意味のある議論が行えるようにすることを目指す。
  4. 責任とアカウンタビリティの促進:AIが適切な条件下で適切に使用されることを保証し、何か問題が発生した場合には、適切な責任追及のメカニズムが存在するようにする。
  5. 包括性と公平性の確保:AI技術は可能な限り広く、平等に使用できるよう設計されるべきであり、特定の集団やマイノリティーに不利益をもたらすバイアスを最小限に抑えるべきである。
  6. 応答性と持続可能性の促進:AI技術は、その使用が環境や社会に与える影響を考慮し、持続可能な方法で設計されるべきであり、また、技術の使用が人間の福祉や持続可能性に貢献することが求められる。

 これらの原則を順守するために、データに関するガバナンスの強化、民間・公共部門を対象とした規制やルール類の整備、国際協力の促進、教育とトレーニングの提供といった具体的施策がまとめられている。

 また同じくWHOは、このガイドライン発表後の生成AIの普及を受けて、24年1月に「大規模マルチモーダルモデルに関するガイダンス」という補足文書を発表している。

「大規模マルチモーダルモデルに関するガイダンス」

 こちらも内容を簡単にまとめておくと、まずLMM(大規模マルチモーダルモデル)特有のリスクとして、不正確や不完全、誤った回答(いわゆるハルシネーションによる誤情報の提供)、データの質とバイアス(LMMのトレーニングに使用される医療データは高所得国のデータに偏る傾向が見られる)、インフォームド・コンセントの劣化(患者がLMMとやりとりすることで十分な理解と同意を得ることが難しくなる)、健康システム全体へのリスク(LMMの過大評価や不適切なモデルへの依存、サイバーセキュリティなど)といったものが挙げられている。

 これらのリスクに対処するために、LMMの開発段階からの介入(データセットの透明性確保と定期的な更新、医療提供者・研究者・患者の開発プロセスへの参加など)、使うデータのデータ保護影響評価の実施、規制機関によるLMMと関連アプリケーションの評価と承認、展開後の監査と影響評価の実施、医療従事者へのLMMの使い方のトレーニングといった施策を提案している。

 このようにWHOのガイドラインでは、医療分野におけるAI活用が適切になされるために、幅広い取り組みを行うことを主張している。逆に言えば、それだけ広範囲にわたる配慮を行わなければ、医療AIが重大なインシデントを引き起こす可能性を十分に抑制できないということだろう。医療AIの開発者には、それをやり抜くだけの意識が求められるのである。

 もちろん医療分野でAIを利用すること自体が悪いということでも、それが必ず問題を引き起こすということでもない。適切に管理し利用すれば、他の分野と同様、AIが大きな価値をもたらしてくれることは間違いない。

 WHOが発表しているようなガイドラインは、決して医療分野でのイノベーションを阻害するのではなく、それを促しつつ同時にリスクも抑制するものとして、開発者にとって文字通りの指針になっていくはずだ。その意味で、開発者はAI倫理に関する原理原則を心に留めると同時に、各方面から発表されるガイドライン類を注視することが求められる。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ