メディア
ITmedia AI+ >

物議を醸した「顔写真から自閉症を判別するアプリ」 医療分野でのAI活用に求められる倫理観を考える(3/4 ページ)

» 2024年08月14日 12時00分 公開
[小林啓倫ITmedia]

 この点は、医師が使うのではなく、患者あるいは病気を疑う個人が自ら使用するAI診断アプリのもう1つの問題につながる。それは医療行為全体から見た場合の懸念だ。

 病気の告知によって精神的なインパクトを受けた患者のケアに限らず、診断後に必要になるアクションは多い。精密検査を受けて詳しい病状を把握する、その上でどのような治療が必要か(あるいは必要ではないか)を考える、食事の内容や運動のような生活の在り方を見直す、といった具合だ。

 こうした対応をもってはじめて「医療行為」が完成するのであり、単に診断で終わってしまっては、どれだけその診断自体の精度が高くても、アプリの対応は不十分だといえるだろう。

 不十分だけならまだ良く、その後にしかるべき医師のもとに向かい、適切な治療を受ければ問題はない。しかしアプリがユーザーの不安を煽るだけになってしまい、彼らが怪しい民間療法や健康食品に頼るようになるといったケースも十分にあり得る。

 悪質なアプリになれば、適当な診断を行った上で、特定の病気の治癒をうたう商品やサービスに誘導することも考えられるだろう。もちろん人間の医師だからといって完璧ではないが、医療行為全体の中で、AIアプリがどのような立場を占めるべきかを考える必要があるのだ。その意味で前述の厚生省が示した「人間の医師が治療行為の一環としてAIを使うことは問題ない」という見解は、極めて妥当なものと考えられる。

医療AIが配慮すべきプライバシー

 そしてもう1つ、医療とAIを考える上で忘れてならないのは、プライバシーへの配慮だ。

 プライバシーは医療分野に限らず、あらゆる分野において、AIを活用する際に開発者・提供者が考慮しなければならない課題となっている。AIモデルをトレーニングする際の学習データに始まり、アプリケーションの利用者が提供する推論データ、AIの判断結果に至るまで、さまざまな場面においてプライバシー侵害が発生し得る。

 例えば、モデル開発に使用した患者の身体に関する情報・治療行為に関する情報などが何らかの理由で流出してしまうことが考えられる。最近の生成AIに関していえば、大量のプロンプトを投じてその出力結果を集めることで、モデルのトレーニングに使った学習データの内容を推察するという、リバースエンジニアリングのような攻撃手法(モデル抽出攻撃)も登場している。

 そのため開発者は、AI開発に使うデータの扱いに極めて慎重になり、さまざまな攻撃を想定して対策を打たなければならない。もちろん、推論データやそこから得られる判断結果に含まれる個人的な情報にも注意が必要となる。ユーザーが投じる多種多様な推論データは、彼らの属性や身体、健康状態に直接関係するものであり、攻撃者にとっては喉から手が出るほど欲しいものだ。

 医療従事者向けのニュースを報じる米HIPAA Journalの調査によれば、米国での医療データ漏えい件数は、11年には200件だったものが21年には715件になるなど、10年間で3倍以上に増加。医療機関のデジタル化という背景もあるが、それだけ攻撃者にとって、医療分野の情報が魅力的なターゲットになっているといえる。

 サイバーセキュリティに多額の投資を行える大手の医療機関でも、近年サイバー攻撃の被害に遭うことが増えている。診断アプリを個人で作成し、推論データとして個人情報を集め、何らかの診断結果という極めて繊細なデータを蓄積していくことは、不適切ではないにしても十分な配慮が求められる行為に違いない。

 個人の人生を左右し、社会の価値観にすら影響を与えるような判断を下す覚悟を持つこと。医療という「診断」だけでは終わらない行為全体の中で、果たすべき役割を果たすこと。自らが扱うデータが、個人にとって非常に重要な情報を含んでいるのだと認識すること。このように医療分野でAIを使うことには、十分な倫理観と責任感が求められる。

 では具体的に、医療分野でAIを開発する際にどのような配慮が必要なのか、最後に具体例を見てみよう。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ