このニューヨーク市の事例にあるように、データは大量にあるだけでは全く意味をなさないが、適切に分析されることによって、今までにはなかった新たな価値を生み出すことになる。ニーズに応えるよう、常にどのようなデータを分析していくのかを問い続ける姿勢がデータ分析を担当する人間に必要になることは言うまでもない。結局は予測の世界なので、当たりもあれば外れもある。ただ、大切なことは、100%の正解を求めるのではなく、90%でもいいのでカバレッジをいかに担保するかという仮説設計能力が重要なのだ。
リーマンショックで破たんした住宅ローンの証券化モデルも、結局は例外に対するパターン分析の甘さが一因であり、ある意味、サブプライム層に対する仮説自体(住宅価格は上がり続けるというおかしな前提)が破たんした瞬間、その前提にない有事を想定したモデルを構築できているか否かで、データサイエンティストの質が決定、評価される。アナリティクスモデラーやデータサイエンティストなどのニーズが拡大していくと考えられるが、彼らに求められる力量は、大規模データを抽出・集約・判定処理できるだけでは心もとない。
予測モデルの投入変数の質をどのように向上させ(そのためには数量化モデルであればχ自乗や重相関係数の算出に始まり、モデル構築後のAICなどの情報量基準の比較による多重共線性の排除に至るまで)、いかに複数パターンで有事のシナリオまで含めて対応可能なように仮説を組み立てていくかの複合的かつ専門性の高い視点を持ち、モデル構築力を養っていくかにかかっているといっても過言ではない。そのために今できることは何なのか、ビッグデータ到来の時代において、考える時期が来ているのではないだろうか。
工藤 卓哉
アクセンチュア株式会社
テクノロジーコンサルティング本部 アナリティクスインテリジェンスグループ 統括責任者
通信ハイテク業・金融・公共サービス領域の情報戦略、顧客情報基盤整備・データ分析、多変量解析プロジェクトの国内外経験多数。企業・行政機関の分析力の高度化や見える化案件を支援。前ニューヨーク市保健衛生局及び教育委員会において、ブルームバーグ市長政権における統計ディレクターを経て現職。
Copyright © ITmedia, Inc. All Rights Reserved.