物議を醸した「顔写真から自閉症を判別するアプリ」 医療分野でのAI活用に求められる倫理観を考える(4/4 ページ)
技術者向け情報共有サービス「Qiita」に載った「顔写真から自閉症を判別してみた」というエントリが物議を醸した。AI活用をする上での倫理観について、さまざまな意見が飛び交ったが、医療分野でのAI開発に求められる倫理観とは一体どのようなものか。
WHOが定めた“健康のためのAI倫理”
いま世界のさまざまな国や地域で、医療分野でAIを利用する際の規制やガイドライン類が整備されるようになっている。そのような例の一つとして、WHO(世界保健機関)が21年6月に発表した「健康のためのAIの倫理とガバナンス」を取り上げてみたい。
このガイドラインは、WHOが各分野の専門家を集めて審議した結果を文書化したもので、医療分野におけるAI利用に関する倫理的課題とリスク、AIが公益に資するようにするための原則をまとめている。また医療AIに対するガバナンスを確立するための一連の勧告も含まれている。
まずガイドラインは、医療AIの倫理的課題とリスクについて、公平性とバイアスの問題(人種や性別、年齢などによる差別が起こり得る)やプライバシーとセキュリティ、責任とアカウンタビリティ(AIの誤診や誤った治療提案に対する責任の所在が曖昧になる)など、先ほど挙げたような問題点を指摘。そしてこうしたリスクを避けるための原則を次のつの項目に整理している。
- 人間の自律性の保護:AIの利用が人間の意思決定を侵害しないようにし、医療システムや医療に関する判断は、人間がコントロールし続けることを確保する。
- 人間の福祉、安全性、公的利益の促進:AI技術が人々に害を及ぼさないようにし、安全性、精度、有効性が保証された使用ケースで適切に利用されるようにする。
- 透明性、説明可能性、理解可能性の確保:AIの判断が、開発者や医療専門家、患者、利用者、規制者に対して理解可能なものになること、そして十分な情報が公開され、使用前に意味のある議論が行えるようにすることを目指す。
- 責任とアカウンタビリティの促進:AIが適切な条件下で適切に使用されることを保証し、何か問題が発生した場合には、適切な責任追及のメカニズムが存在するようにする。
- 包括性と公平性の確保:AI技術は可能な限り広く、平等に使用できるよう設計されるべきであり、特定の集団やマイノリティーに不利益をもたらすバイアスを最小限に抑えるべきである。
- 応答性と持続可能性の促進:AI技術は、その使用が環境や社会に与える影響を考慮し、持続可能な方法で設計されるべきであり、また、技術の使用が人間の福祉や持続可能性に貢献することが求められる。
これらの原則を順守するために、データに関するガバナンスの強化、民間・公共部門を対象とした規制やルール類の整備、国際協力の促進、教育とトレーニングの提供といった具体的施策がまとめられている。
また同じくWHOは、このガイドライン発表後の生成AIの普及を受けて、24年1月に「大規模マルチモーダルモデルに関するガイダンス」という補足文書を発表している。
こちらも内容を簡単にまとめておくと、まずLMM(大規模マルチモーダルモデル)特有のリスクとして、不正確や不完全、誤った回答(いわゆるハルシネーションによる誤情報の提供)、データの質とバイアス(LMMのトレーニングに使用される医療データは高所得国のデータに偏る傾向が見られる)、インフォームド・コンセントの劣化(患者がLMMとやりとりすることで十分な理解と同意を得ることが難しくなる)、健康システム全体へのリスク(LMMの過大評価や不適切なモデルへの依存、サイバーセキュリティなど)といったものが挙げられている。
これらのリスクに対処するために、LMMの開発段階からの介入(データセットの透明性確保と定期的な更新、医療提供者・研究者・患者の開発プロセスへの参加など)、使うデータのデータ保護影響評価の実施、規制機関によるLMMと関連アプリケーションの評価と承認、展開後の監査と影響評価の実施、医療従事者へのLMMの使い方のトレーニングといった施策を提案している。
このようにWHOのガイドラインでは、医療分野におけるAI活用が適切になされるために、幅広い取り組みを行うことを主張している。逆に言えば、それだけ広範囲にわたる配慮を行わなければ、医療AIが重大なインシデントを引き起こす可能性を十分に抑制できないということだろう。医療AIの開発者には、それをやり抜くだけの意識が求められるのである。
もちろん医療分野でAIを利用すること自体が悪いということでも、それが必ず問題を引き起こすということでもない。適切に管理し利用すれば、他の分野と同様、AIが大きな価値をもたらしてくれることは間違いない。
WHOが発表しているようなガイドラインは、決して医療分野でのイノベーションを阻害するのではなく、それを促しつつ同時にリスクも抑制するものとして、開発者にとって文字通りの指針になっていくはずだ。その意味で、開発者はAI倫理に関する原理原則を心に留めると同時に、各方面から発表されるガイドライン類を注視することが求められる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
病院で生成AIはどう使う? フル活用する病院が明かす“5つの事例” 初めの一歩は「全職員へのiPhone配布」
生成AIのビジネス活用が進む中、AIの積極的な活用によって「病院DX」に取り組んでいる医療機関がある。その1つであるHITO病院のDX推進を担う篠原直樹医師が、病院での生成AI事例について説明した。
AIと人間はどのように共存すべきか? 脳科学者・茂木健一郎さんの主張 「人間は人間にしか興味がない」
脳科学者の茂木健一郎さんは、日本CTO協会が開催した「Developer eXperience Day 2024」において「脳力とAIのアライメント」というテーマで講演した。人間がAIとどのように向き合うべきかについて、哲学的な考察を展開した。
AI開発に黄色信号? 市場急成長で“学習用データ枯渇”の懸念 解決策といわれる「合成データ」とは何か
ある調査によれば、2024年のAIの市場規模は全世界で1840億ドルに達し、30年までに8267億ドルとなる見込みだ。一方、生成AIの普及・進化には“学習用データの枯渇”リスクがあるという。そこで解決策として期待されているのが「合成データ」である。
「著作権トラップ」――生成AIに作品を“無断盗用”されたか後から証明する方法 英ICLなどが開発
英インペリアル・カレッジ・ロンドンなどに所属する研究者らは、大規模言語モデル(LLM)の訓練データに著作権所有者の作品が含まれているかを特定する方法を開発した研究報告を発表した。
人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるか
元OpenAIの元研究員が「『AGI』(汎用人工知能、人間と同程度の知能を持つAIのこと)は27年に実現する」と警鐘を鳴らす論文を発表し、話題になったことをご存じだろうか? AIが人を超える知能を持ったとき、どのようなリスクが考えられるか。

