Special
» 2013年09月12日 10時00分 UPDATE

手になじむツールを自在に選択可能、目的を達成するためのデータ分析環境とは?

ビッグデータの利用機運が本格的な盛り上がりを見せている。ただし、ビッグデータにより成果を上げる企業がある一方で、利用に戸惑い、活用が進まぬ企業も少なくない。では、こうした差が生まれる理由はどこにあるのか。また、状況を打開するために何が求められているのか。ビッグデータ活用に向けたポイントと、企業導入が進んでいる日本IBMの関連ソリューションを紹介する。

[PR/ITmedia]
PR

データ活用に対する意識の差が鮮明に

 技術革新により従来であれば処理しきれなかった大量かつ多種類、しかも更新頻度の高いデータの分析処理を高速に行えるようになったことを背景に、いよいよビッグデータの企業利用が本格化し始めている。企業により利用目的はさまざまであるが、その大局的な目的は言うまでもなく業務への貢献、ひいては利益の極大化にある。

 商品やサービスの開発から、マーケティング強化、新規事業の創出など、ビッグデータは業務の川上から川下まで、業種業態を問わずあらゆる業務の改善に活用を見込むことが可能である。ただし、その活用には課題があることもまた事実である。

日本IBM ソフトウェア事業 インフォメーション・マネジメント事業部の小島繁樹氏 日本IBM ソフトウェア事業 インフォメーション・マネジメント事業部の小島繁樹氏

 「ビッグデータの分析、利用の裾野は近年になり急速な広がりを見せており、国内でも成果を上げている企業は多い。ただし、その一方で、データ分析にどう取り組むべきか戸惑う企業も存在している」。こう語るのは、日本IBM ソフトウェア事業 インフォメーション・マネジメント事業部の小島繁樹氏である。

 小島氏はビッグデータ活用の成否を分けるポイントとして「“データ活用”に対する意識の差」を真っ先に挙げる。従来からも各種業務データの活用は進められてきたが、それらの大半は単純な集計処理による、いわば“固定化”したレポーティングと言える。対して、「ビッグデータ活用の本質は、明確な問題意識、目的に対し、多様なデータを使って解決をしようとするアプローチ」(小島氏)。その困難な取り組みを軌道に乗せるためには、当然ながら手段として活用しようとする情報の意味、価値に対する深い理解が欠かせない。

 「加えて、従来からの勘や経験といった属人的な判断基準よりも、分析結果に基づく客観的な基準を理解する、優先できる土壌があって初めて、ビッグデータ活用に向けた体制が整えられる」(小島氏)

データ活用の最終目的は自社で!

 ビッグデータ分析に必要とされる一連の作業は、明確な目的を実現するための仮説立案を皮切りに、分析モデルの設計と検証、さらに実際の分析結果に基づく分析モデルの見直しまで多岐にわたる。そのため、1テーマの分析に数カ月を要すことも珍しくはない。当然、その規模の分析テーマとなるとIT部門、マーケティング部門が片手間に行うことは難しく、自然な流れとしてビッグデータ利用にあたりデータ分析の専門組織、専門人員の配置が必要になるという。

 そうした状況で必要となるのが、データ分析の専門家であるデータアナリストの人材育成である。分析モデルの設計には業務の理解、課題の理解、そしてデータに対する理解を大前提に、データを扱う知識、そして統計学的知識も必要とされる、その修得は一朝一夕では困難だ。分析により解決したい経営課題や入手可能なデータは企業ごとに異なり、確立された手本がない状況で分析モデルを設計する必要があることも、取り組みを困難なものにさせているという。

 こうした背景から、外部企業に助言を求めつつビッグデータ活用を進める企業も多いが、そこでの注意点を小島氏は次のように指摘する。

 「IT技術などはIBMをはじめとして外部企業から助言することができる。しかし、組織の課題、組織の業務に最も精通しているのは自社の社員。だからこそ、改善したい指針の決定など、データ分析の目的は明確に自らが設定する必要がある。目的が適切でなければ、得られる成果も限定的なものにならざるを得ないのだ」(小島氏)

 具体的には、中長期を視野に入れた目標設定が取り組みの第一歩。その上で、スタートアップ期には、結果を出すことを最優先とした分析テーマを設定するとともに、仮説立案と検証を繰り返すこととなる。

 この時期であれば、分析対象のデータは量も種類もそれほど多くなく、オープンソースの分析ソフトなども選択肢とした分析環境を整備できることもある。

 その後、より高度な分析に取り組むことになるが、課題となるのが、分析システムにより高い柔軟性と処理能力が求められることである。

 「高度な分析では、多様なデータを自由に組み合わせて分析することが求められ、高い柔軟性が欠かせない。加えて、扱う必要があるデータ量も膨大となることが多く、極めて高い処理能力が必須。分析は人間の思考そのものであり、データ分析の価値を最大限に引き出す上で、これらの要件を満たし、分析者の思考を止めない環境を用意することが不可欠となる」(小島氏)

データ処理のための“家電” である「PureData」

 こうした課題克服を支援すべく、日本IBMが提供しているのが多様なビッグデータソリューションである。中でも、ビッグデータのためのデータベースプラットフォームと位置付けられるのが「IBM PureData System for Analytics」だ。

 一番の特徴は、プログラムの書き換えが可能な柔軟性に富むFPGA(Field Programmable Gate Array)と非対称型超並列処理技術の採用により、超並列のストリーミング処理を可能にし、既存のカスタマイズシステムと比べ、10〜100倍もの処理の高速化を実現したこと。処理時間を短縮するために、従来はデータベースのチューニングやインデックスを作成する手間が必要とされたが、PureData System for Analyticsではそうした手間は一切不要。リソース最適化の自動化によって、導入・運用コストの大幅削減も実現される。

 そして、このビッグデータの分析基盤と密連携して稼働する分析ツールに位置付けられるのが、迅速かつ直感的に予測モデルを作成可能な「IBM SPSS Modeler(SPSS Modeler)」である。SPSS Modelerはコマンドラインを叩くことなく、高度な分析やデータ加工を直感的に行うことが可能。その高い使い勝手から、統計解析の初心者からプロフェッショナルまで幅広い支持を集める。

 「PureData System for Analyticsは、ボタン1つでビッグデータの超高速処理を可能にする“家電”のような存在だ。しかも、150を超える数理統計アルゴリズムも標準的に利用でき、SPSS、R、SASなど、多様な分析ツールと連携することも可能。利用者はこれら分析ツールを利用するだけで、意識することなくPureData System for Analytics の高速処理を利用できる。分析対象となるデータが増加を続ける中、こういった環境こそこれからの分析システムの要件を満たすための最適解と言えるのだ」(小島氏)

短期間での分析=成果の最大化に

 分析システムにおける処理能力の高さは絶対的な差別化要因を生み出す。

 「分析の過程では、分析者は試行錯誤を繰り返す。処理が高速化すれば、そのための時間的な余裕も生まれ、分析モデルの高度化も期待される。PureData System for Analyticsであれば、例えば、数時間を要していた処理を数秒に改善させることもある。ひいては、より信頼性の高い分析モデルの設計とともに、よりリアルタイムに近いデータ分析など、これまで現実味の薄かったデータ活用にも乗り出すことが可能になるわけだ」(小島氏)

 Netezzaの買収により、同社のDWHアプライアンスをIBMがPureData System for Analyticsとして販売するようになって1年が経とうとしている。その間、ビッグデータへの関心の高まりを追い風に、その売り上げは着実に伸びているという。こうした膨大なデータを扱う高度な分析に取り組む企業も業種・業態を問わず増え続けているという。

 「販売分析はもちろん、Webの世界でも確実にデータの活用度が向上している。理論上、分析モデルが成り立つことは分かっていたが、必要なスピード、精度での分析が不可能であった分野などへの適用は著しい」(小島氏)

データ分析に失敗はなし

 ビッグデータ活用を支援すべく、日本IBMはスタートアップ企業になどに対するコンサルティングや、データサイエンティストの育成を目的としたセミナー、実機を用いた性能検証など“人”と“IT”の双方の面で多様な活動を推進中だ。中でも近年取り組みを開始したのが、ユーザー会の開催などを通じたユーザー間での横連携の促進である。

 データの分析手法に明確な“解”は存在しない。同じ目標を掲げても、組織、環境が変われば、利用できるデータも企業ごとに異なる。それゆえ、分析モデルの設計にあたり、データ分析の主役とも言えるデータアナリストの思考が“煮詰まる”こともしばしば。

データアナリスト間の交流や分析理論を戦わせる場を提供することで、こうした状況の打開を見込むことができる。

 「各社の分析内容は社外秘扱いのものがほとんどだが、ユーザー同士の横の交流を通じて、その一端に触れ、参考とすることで自身の分析に生かすことは可能なはず。一方で、他社のアナリストと分析手法について話し合い、多くの点で意見が一致したことで自身の分析に自信を持つといった“好循環”も生まれている」(小島氏)

 データ分析において、失敗は存在しないというのが小島氏の考え。検証の結果、分析モデルの精度が低いことが明らかになったとしても、分析に用いたデータ、変数、マイニング手法が適していないことを把握できた点で、それもまた“成功”といえるからだ。

 「例えば、PureData System for AnalyticsとSPSSを組み合わせは、その高い処理能力と柔軟性で、成功への歩みを加速させることが可能だ。分析はITシステムの導入で成功するものではなく、あくまで明確な目的を支援するもの。今後もユーザーの成功に向け、PureData SystemsをはじめとするIBMのソリューションで支援を続けていく」(小島氏)

 ビッグデータ活用がさらに加速する中、日本IBMが提供する分析ソリューションは成果を最大化させる鍵となりそうだ。

関連ホワイトペーパー

wp120.jpg

本格的なビッグデータ分析をよりシンプルに データ分析の最適解

ビッグデータ活用が進むのに伴い、より高い柔軟性と処理能力が求められる分析システム。分析者の思考を止めない環境を、納入後最短1〜2日で、低コストに用意する方法とは?


Copyright© 2016 ITmedia, Inc. All Rights Reserved.


提供:日本アイ・ビー・エム株式会社
アイティメディア営業企画/制作:ITmedia エンタープライズ編集部/掲載内容有効期限:2013年10月11日

関連ホワイトペーパー

ビッグデータ活用が進むのに伴い、より高い柔軟性と処理能力が求められる分析システム。分析者の思考を止めない環境を、納入後最短1〜2日で、低コストに用意する方法とは?。