“ビッグデータ”が経営を変える

ニューヨーク市に学ぶ大規模データ活用の真髄(1/4 ページ)

ブルームバーグ市長が推進するニューヨーク市政府の大規模データ活用に携わっていた筆者が、さまざまな実例を基に、企業が今後いっそう注力すべきデータ解析のキーポイントをお伝えする。

» 2012年06月06日 08時00分 公開
[工藤卓哉,アクセンチュア]

 近年、ブログやSNSを活用したユーザー主体の情報交換が盛んである。「YouTube」をはじめとする動画投稿サイトでやり取りされる情報は、さらにほかのユーザーからのフィードバックを受け、巨大な集合知を形成している。また、これまで活用することがなかった非構造化データや、自由度の高い準構造化データへの期待も高まっている。センサーデータ、空間情報やバイナリ情報、音声、画像、動画情報など、これまでの常識的な解析対象の蓄積型構造化データの枠組みを越え、多様化するデータ(調査会社IDCのレポートによると、2020年に世界で作成されるデータ量は、35.2ゼタバイトに達すると予測されている)は、総量で2020年までにおよそ現在の44倍にも増加すると言われている。

ビジネスアナリティクスについて(出典:アクセンチュア) ビジネスアナリティクスについて(出典:アクセンチュア)

 一方で、こうした「ビッグデータ」と呼ばれる領域は、その処理基盤の可能性に注目が集まっているものの、実データの活用自体に注目した取り組みは少ない。

 それ故に、ビッグデータがバズワード的に使われることも多い。具体例として何があるのかという問いに対し、どうしても基盤寄りの話題になってしまうことが多く、その事実がバズワード化に拍車を掛けていることは否めない。ビッグデータの応用例は電力業界におけるスマートメーターの活用から、コマツの機械稼働管理システム「KOMTRAX」のような「M2M(Machine to Machine:機械と機械がIPネットワークを介して相互に通信し合う通信形態)」による予測モデルの構築などが挙げられるが、元々、大規模データの要素技術を着実に、かつ広範なユーザーにも利用できる形で発展させてきたのは、検索エンジンの要素技術が貢献していると言われている。検索エンジンは分散システムや自然言語処理、分類器のアルゴリズム実装など、コンピュータサイエンスのさまざまな分野の技術だけではなく、多変量解析と呼ばれる分析アルゴリズムの理解を必要とするが、大規模データを有効活用する上でこの複合要素の融合が真の効果創出のためには極めて重要といえる。

 そこで本稿では、大規模データを処理する際のキーとなるアルゴリズムである「多変量解析」の活用事例について、特に焦点をあてて紹介したい。中でも、筆者自身が統計ディレクターを務めていたニューヨーク市政府の大規模データ処理における多変量解析の活用事例を紹介し、今後想定される課題について、どのような方向性が事前に見出せるのかを示すことで、トレンドに左右されない「ビッグデータの真の活用」につながれば本望である。

ブルームバーグ市長の功績

 ニューヨークの名物市長、マイケル・ブルームバーグは市長オフィスと連携し、Twitterで「行政用車両としてPriusを採用し、環境に配慮した」など、自らが発表した目玉の政策について、直接市民に対する日々の情報配信を欠かさない。ニューヨークと言えばファイナンスで覇権を握るウォール街や、9.11後の象徴的存在であるグラウンドゼロ、フリーダムタワーの建設、タイムズスクエアの年末年始カウントダウンや、ミュージカル、オペラなど、ビジネスや文化の拠点として有名だが、実は名物市長の革新的なデータ基盤を主軸とした、画期的な政策制度設計が日々実践されていることは、全米にとどまらず世界の政策制度設計者の間ではよく知られている。

 例えば、世界中の警察や犯罪抑止組織が注目する警察官配備最適化システム(CompStat)など、データ解析を駆使した政策を支持している。データによる意思決定支援会社、ブルームバーグL.P.を運営し、一財を築いて以来、今期で3期目となるブルームバーグ市長は、事実とデータ解析に基づく組織運営方法に対する信奉者なのだ。

 ニューヨーク市政府では、全省庁への行政業務アプリケーションのクラウドコンピューティング化やスマートシティ、市民に対する無料のWi-Fi構想を打ち出すなど、革新的なアイディアで全米をけん引している。ブルームバーグ市長自身は、資本市場に透明性をもたらす企業を作ることで、金融市場全体の資本流動性を高め、大きな経済波及効果と労働市場の創出、ビジネスを遂行する上で必要となる資本調達にかかるコストを軽減できると信じて起業し、大成功した。

 市長はこの成功を基に、行政運営についても、事実と予測を軸に分析力を活用し、行政の透明性を担保することで、組織運営の効率化を推進している。昨年は、コロンビア大学ビジネススクールの客員教授であるレイチェル・スターン氏を抜擢し、市行政のチーフ・デジタル・オフィサーに迎え入れるなど、データ解析に対する熱は冷めない。スターン氏は、市民ジャーナリズムのWebサイト「GroundReport」の創設者で、2009年には米ビジネスウィーク誌で、「米国の最も将来有望なソーシャル起業家」の1人に選ばれている。

 こうした個人が生み出す情報量の増加が目立つところであるが、実はそれ以上に、ブルームバーグ氏が着目するのがM2 Mである。機器が生成する情報量は、人が生み出す情報量をはるかにしのぐ勢いで増加している。大量データを処理することで生成される膨大なログ情報、GPS(全地球測位システム)のトレースデータ、RFID(非接触型認証)技術、血圧測定器から流れるバイタル情報、定点カメラからの映像データ、リアルタイムで変動する小売の取引情報や株価情報、通信衛星からの天気情報や交通情報など、これらすべてが大規模データを形成する非構造化データであり、貴重な行政改革のインプットになり得る。

 ビッグデータの解析にあたっては、まずデータがどのような頻度で発生し、処理されるのかを把握する必要がある。既にテラバイトはもちろん、ペタバイトレベルのデータセットも当たり前のものになってきている中で、分析対象となるデータ量が増え、分析処理、配信速度への要求や分析自体の精度も上がってきている。データ分析の費用対効果を踏まえたサンプルや検出力の概念と重要性が、マーケッターや統計学者の間で薄れていく中、ある意味「早いが一番」ではないが、複雑な分析モデルを考えずとも、大量データを断面で即時にとらえることができれば、分野によっては、より有益なインサイトは導出できる。ただし、私自身、「ベイズ理論」の有用性は見出しているとはいえ、従来型の分散分析や古典的統計を主軸とした解析手法の重要性が低下したり、取って変わられるとは考えていない。恐らくは相互補完的に共存していくだろう。

       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ