AIを“暴走させない”ための4つの要素Microsoft Focus(1/2 ページ)

人工知能(AI)が本当の意味で身近で便利なツールになるには、人間にとって「信頼できるかどうか」がカギ。Microsoftは「信頼できるAI(Trusted AI)」を掲げ、その要素として「FATE」が重要だとする。4つの要素が含まれるという「FATE」とは?

» 2017年03月18日 08時00分 公開
[大河原克行ITmedia]
Photo Microsoft バイスプレジデントのデイヴィッド・ハイナー氏

 米Microsoftのデイヴィッド・ハイナー氏が来日し、Microsoftが考える「信頼できるAI(Trusted AI)」の現状や課題、そして今後の展望などについて説明した。

 同氏は、法務部門において、プライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野規制関連などを担当。人工知能に関しては、ポリシーフレームワークの開発を推進する役割を担っている。

人工知能は人間の能力を拡張する技術

 人工知能が社会に貢献する事例の1つとしてハイナー氏が挙げたのは、ヘルスケア分野での活用だ。

 例えば人工知能は、X線で撮影された画像を理解し、リンパ腺にがんの可能性があると認識できるが、このエラー率は7.5%。優れた病理学者のエラー率は3.5%にとどまっており、現状では人の方が勝っている。しかし、この両者を組み合わせた場合のエラー率は、0.5%にまで減少することが分かったという。

 ハイナー氏の考えは、“人工知能は人間の能力を置き換えるのではなく、拡張できるものでなくてはならない”というもので、人間が持つ能力と共感力、判断力を支援するものになる必要があるという。

 「教育、ヘルスケア、交通、農業など、人工知能はあらゆる分野で利用されることになる。配管工にはレンチが必要なように、人工知能を多くの人が必要なツールとして利用できるようにしたい。いずれは全ての人が人工知能を使えるようにすることが大切」(ハイナー氏)

 その一方で、人工知能の利便性が高まるとともに、社会的な問題や倫理的問題が発生することも指摘する。

 「新たなテクノロジーが誕生すると、社会的な課題や倫理上の課題が必ず生まれてくる。人工知能は知識や学習、推論、意思決定を支援し、世の中を良くすると信じているが、同時に課題が生じることも認識しておくべき」とし、「人工知能はこの数年で大きく進化したが、併せて倫理に関する議論も必要になってきた。Microsoftでは、この1〜2年で社内委員会を設置して議論を始めている」と述べた。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ