AIを“暴走させない”ための4つの要素Microsoft Focus(2/2 ページ)

» 2017年03月18日 08時00分 公開
[大河原克行ITmedia]
前のページへ 1|2       

「信用できるAI」に重要な「FATE」とは?

 現在、Microsoftでは、「信頼できるAI(Trusted AI)」をキーワードに、AIの信頼性について「FATE」という観点から取り組んでいるという。

 FATEとは、「公平性(Fairness)」「説明責任(Accountability)」「透明性(Transparency)」「倫理(Ethics)」の頭文字をとったもので、この4つを信頼性の実現において重要な柱に位置付けている。

 ハイナー氏は、そうした取り組みの中で顕在化した幾つかの課題について、実例を示しながら紹介した。

Photo

 1つ目は、信頼性と安全性の課題だ。

 例えば、機械学習は収集されたデータを基に行うため、これが正しいデータでなければ、さまざまな問題が発生することになる。

 顔認識機能は、米国において白人を対象に研究開発が進められた経緯があり、アジア人よりも白人のほうが顔認識の精度が高いという。そのため、今後はアジア人をはじめ、全世界のあらゆる人の顔を対象にトレーニングを積み重ねていく必要があると指摘する。

 また自動運転については、フロリダ州で発生したTesla Motorsの自動運転の事故の例を挙げながら、「白いトラックに衝突したのは、人工知能がそれを白い霧と判断したため。人工知能が人間に危害を与えるものであってはいけない」と述べた。

 そして、このように自動運転で事故が起きた場合の責任はどうなるのかについても言及した。

 例えば、事故で人に危害が及んだ場合には、誰かが責任を取ることになる。もし、乗客に責任がないとすれば、自動車メーカーが責任を負うことになるだろうが、自動車メーカーは『人工知能は他社が作った』と言い張り、人工知能を作った企業を訴える可能性もある――というわけだ。

「これはエアバック事故と同じ。自動車メーカーは乗客のけがに対する責任を負いながらも、エアバックメーカーに損害賠償を起こすといったことが起きている」(ハイナー氏)

 2つ目は、公正性である。

 ハイナー氏は、Googleによる検索の事例を挙げながら、「『3人並んだ若い黒人』という画像を検索した場合、検索結果には、残念ながら犯罪の容疑者の写真が多く表示された。だが、『3人並んだ若い白人』では、バスケを楽しむ笑顔の子供たちが表示された」と指摘。これはGoogleがプログラミングしたわけではなく、多くのデータを基にした機械学習の結果だという。

 「この検索結果は公正なものとはいえず、人種差別があることを反映したもの。それをさらに人工知能が助長することにつながりかねない」と警鐘を鳴らす。

 同氏はまた、「CEO」と検索したときに、男性経営者の顔ばかりが表示されることにも懸念を示した。「確かにFortune 500に選ばれる企業でも85%以上のCEOが男性だが、少女がこの検索結果を見て、“CEOは男性の仕事である”と受け止めかねない」(ハイナー氏)

 ハイナー氏は、これを解決するには3つのステップが必要だという。1つは多様な人種が人工知能技術に関わることだ。

 「人工知能はシリコンバレーで進化を遂げているが、シリコンバレーで働く人は、若い白人男性が多い。この状況を変えていくことが人工知能の偏見をなくす」(ハイナー氏)。

 そして、「多様な視点で人工知能技術を捉える」「多様な分析技術を活用する」といったステップも大切だと話す。

 3つ目は、プライバシーの問題だ。

 先に触れたように人工知能はデータに依存するが、そのデータを基にした人工知能の推論によって、図らずも個人のプライバシーが明らかになってしまうケースがあるという。

 5年前、米大手小売のTargetでは、購買履歴を基におすすめの製品をプッシュでメールするといったサービスを行っていた。このとき、16歳の女性に対して妊婦に勧めるような製品のメールが相次いで届いたことに親が激怒。クレームを入れたという。

 Targetは謝罪したが、その後、親と連絡を取ると、その女性が妊娠していたことが発覚。妊娠初期だったため、妊婦が必要とする製品は購入していなかったものの、無香料のローションなど、妊婦がよく購入するような製品を購入していたことから、その履歴を基に人工知能が判断し、そうしたレコメンドメールを配信していたという。

 ハイナー氏は、「人工知能による推論でプライバシーが明らかにされてしまった例の1つである」としながら、対策について、次のように言及した。

 「個人が“情報をどこまで提供するのか“をコントロールできることが大切であり、情報を収集する側も、どんなデータを収集しているかを示す透明性も重要。そして、収集したデータをしっかりと保管し、情報が流出しないようセキュリティの担保が必要だ」(ハイナー氏)

人工知能は人の仕事を奪うのか

 最後のポイントは、「人工知能が人間の仕事を奪ってしまうのか」という点だ。

 ハイナー氏は、「人工知能によって仕事が自動化され、仕事がなくなってしまうのではないかと懸念している人がいる。だが、これは人工知能に限ったことではなく、新たなテクノロジーが登場するたびに起こってきたこと」という。

 その例として挙げたのが車の登場だ。「1900年のニューヨークでは馬車が主な移動手段だったが、1920年には車に置き換わった。馬を飼育する仕事はなくなり、自動車産業が新たな雇用を生むことになった」(ハイナー氏)

 例えば、自動運転が普及すれば、ドライバーの仕事はなくなるかもしれないが、それとは別の新たな仕事が生まれる可能性があるというわけだ。

 「単純作業を人工知能やロボットが担うようになれば、その分、人はよりインテリジェントな仕事に関われるようになる。どんな仕事を奪い、どんな仕事を生むのかは分からないが、人工知能が人間のスキルを増進させるための役割を果たすのは明らかだろう」とする。

 人工知能は、社会に進展に大きな影響を与えるのは間違いがない。だが、それは、「信頼できるAI」でなくてはならないのは明白だ。技術の進化だけでは、社会で活用される技術にはならない。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ