連載
» 2018年02月15日 06時00分 公開

“いま”が分かるビジネス塾:自己成長するAIは「医療機器」として安全なのか (2/3)

[加谷珪一,ITmedia]

医療現場でAIをどう位置付ける?

 だが理屈上、医師の業務の多くをAIで代替することができたとしても大きな問題が残る。それは診断の最終的な責任を誰が負うのかという話である。

 この点について厚生労働省は、AI時代においても、全ては医師主導で医療業務を進めるとの方向性を打ち出している。同省の有識者会議がまとめた報告書では、AIの医療業務への応用について以下のような提言が行われた。

  • 現状ではAIが単独で診断を行っているわけではないので、AIの判定結果には誤りがあり得る
  • 診断の確定や治療方針の最終的な意思決定は医師が行う
  • 意思決定の責任も医師が負う
  • AI開発には医師が深く関与する

 極めて常識的な内容であり、この考え方に異論を挟む人はほとんどいないだろう。ただAIの進歩が急ピッチで進むことを考えると、次のフェーズにどう対応するのかについても、今から議論しておく必要がありそうだ。

 米国では16年12月に「The 21st Century Cures Act(21世紀医療法)」という法律が施行された。この法律は、イノベーションの進展に合わせ、医薬品や医療機器の開発、審査をスピードアップすることを目的としたものだが、注目すべき点はAIに関連した項目である。いくつかの要件を満たしたAIは、医療機器に該当しないことが明文化されたのである。

 医療機器と認定された場合、メーカーが製品を販売するには、当局の審査を受ける必要がある。役所の審査基準は安全が第一であり、技術の安全性や効果が十分に立証されたものに限定される。つまり医療機器である限り、基本的には現状(医療機器と認定されたときの状態)がベースということならざるを得ない。

 だが、AIの場合にはディープラーニング(深層学習)機能を活用することで、自ら新しいデータを取り込み、能力を向上させることが可能となる。しかもディープラーニングの場合、なぜそのような分析結果になったのか、人間がすぐに判断できないケースも多い。

Copyright © ITmedia, Inc. All Rights Reserved.

アクセスランキング
  • 本日
  • 週間