ビッグデータも「統合」がカギ、TeradataとHadoopで「ニッポンの課題解決エンジン」を目指すヤフー(2/2 ページ)

» 2014年03月25日 08時00分 公開
[浅井英二,ITmedia]
前のページへ 1|2       
Teradata Universe Tokyoで講演するヤフーの角田氏

 「課題解決エンジン」を標榜するYahoo! JAPANでは、Hadoopが3700台、Teradataも国内最大規模のクラスタを構築、ビッグデータを活用することで「世界で一番、日本に精通した会社」を目指している。月間560億を誇るページビューや年間75億種類に上る検索クエリは、日本のユーザーについて知るための膨大かつ大切なデータ資産だ。同社は、圧縮後でも1日当たり十数テラバイトにもなる、これらのデータを分析・活用することでレコメンデーションや検索時のキーワード入力補助など、きめの細かなサービスの提供に役立てている。

 ヤフーの事業戦略統括本部データソリューション本部でテクニカルディレクターを務める角田直行氏は、「どのページを閲覧して、次にどのリンクを選び、どのリンクは選ばなかったのか、というデータは、ユーザーがどういう気持ちを抱いて次のアクションを取ったのかを知る材料になる。検索クエリのデータはユーザーのさらに強い意図が反映される」と話す。

 ヤフーではショッピングやオークションも運営しており、その購買履歴からは個々の趣味や嗜好が把握できる。

 「Yahoo! IDの属性に応じて、さまざまなデータを掛け合わせて分析していくことで、個々のユーザーがライフステージごとに何を望んでいて、次にどう行動するのか知ることができ、人によって求めるものが異なる“問い”にも高い精度で回答できるようになる」(角田氏)

 Hadoopは主に定型処理に使われ、Teradataはサービス改善のための仮説を立証するアドホックな分析に、とそれぞれ適材適所で上手く使い分けているが、いずれも限られたユーザーではなく、サービスごとの組織をまたがり、横串しでデータを掛け合わせ、全社でその活用に取り組んでいるのがポイントだ。

 「現在、ヤフーでは100以上のサービスを提供し、さらにより良いものにするために5000人以上の社員が取り組んでいる。データはサイエンティストだけのものではない。全社員がデータによって変化を感じ取り、次に何をしなければならないのかを考える企業文化が大切だ」と角田氏。

 ビッグデータの分析・活用もやはり「統合」がカギを握っている。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ