「人工知能はデータが命」に潜むワナ――その数字、本当に信頼できますか?【追補編】真説・人工知能に関する12の誤解(18)(1/4 ページ)

人気連載「真説・人工知能に関する12の誤解」が、書籍化を記念して期間限定で復活。今回は「人工知能はデータがそろっていれば大丈夫」という誤解がテーマです。

» 2018年05月10日 08時00分 公開
[松本健太郎ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

編集部より

 これまで連載してきた「真説・人工知能に関する12の誤解」を加筆修正した本、『AIは人間の仕事を奪うのか〜人工知能を理解する7つの問題』(C&R研究所)が2018年4月27日に発売されました。出版を記念し、「追補編」として連載が少しの間だけ復活します。

 これまでの連載で説明してきたように、人工知能(機械学習)を活用しようとするならば、まず何よりもデータが必要になります。しかし「データが必要」という言葉に引っ張られ過ぎるのも困りものです。

 事実、「データが一式そろってさえいれば分析を始められる」「人工知能にデータを与えれば(食わせれば)、何らかの機械学習の手法を用いて解を導いてくれる」と考える人は少なくありません。しかし、少し立ち止まって考えてほしいことがあります。そもそも、そのデータは“本当に”正確なものなのでしょうか。

 例えば、体重計で測定した数字を考えてみてください。ジムに行ったことがある人なら分かるかもしれませんが、ジムにある体重計と自宅の体重計では、体脂肪率に大きな差が出ることがあります。温度計にしても、周囲に建物があるかないかといった要因で、2度ほど数値が変わることもあります。果たしてどちらの数値が正しいのか。これは難しい問題です。

 測定結果の数字と、その数字が持つはずの意味は必ずしも一致しません。つまり、測りたい数字を測れているとは限らないのです。きちんと測れていない数字を使って人工知能を開発しても、思ったような成果は出ないでしょう。その点で、私は数字というか、データ「のみ」を過信してはいけないと考えています。

 最近、それを思い知らされる事件がありました。2018年5月初旬に破産申請を行ったCambridge Analytica(ケンブリッジ・アナリティカ、以降CA)です。Facebookの個人情報約8700万人分を不正に利用した疑いがあるとして、大きな波紋を呼んだのは記憶に新しいところです。

人間の意思決定に影響を与えるスゴい会社?

photo CAの活動は、数々の選挙結果に大きな影響を与えたと報道されています(写真はイメージです)

 「Brexit(英国のEU離脱)の黒幕」「トランプ政権の立役者」――本連載の趣旨はCAを取り巻くスキャンダルの報道ではないので、詳細は以下の記事などをご覧いただければと思いますが、同社の業務は、ビッグデータ解析に基づく、心理学的特性や人格を測定する計量心理学を用いた選挙コンサルティングだと認識しています。

 米大統領選の際には、「投票者の行動に影響を与えられるツール」として、トランプ陣営に提供したとNew York Timesが報道しました。データを分析し、Web上やSNSでネガティブな情報を拡散させるといった、対立候補のネガティブキャンペーンを展開したといわれています。

 Webページに脳の形をした同社のロゴを表示していることからも、人工知能の技術がある、データに強いといったメッセージを伝えたかったのでしょう。ちなみに、彼らのミッションステートメントには、こう記載されています

 To deliver Data-Driven Behavioral Change by understanding what motivates the individual and engaging with target audiences in ways that move them to action(個々人の興味関心を理解し、広告の想定対象者を行動に導くような方法で関わることで、データ駆動型の行動変化を実現する).

       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ