ビッグデータの活用になぜテキストマイニングツールが必要なのか?ホワイトペーパー

ビッグデータの約80%は非構造化データであり、その多くは自然言語データである。ビッグデータを活用するためには、テキストマイニングツールが必須だ。具体的には、どのようなことが可能なのか?

» 2013年09月17日 15時00分 公開
[TechTargetジャパン運営事務局,PR/ITmedia]

 今、Facebookだけで1日に朝刊1万年分(10Tバイト)のデータが処理されている。こうしたデータを分析することで、新たな知見や洞察を得ることができると期待されている。

 だが、ビッグデータの約80%は自然言語で構成された「非構造化データ」であり、その分析にはテキストマイニングツールが不可欠である。文書中のキーワード比率やキーワード間の相関関係、時系列や出現増減傾向の分析、「好評」「不評」などの感情の分析を実施し、各種グラフやマップを生成。これらをダッシュボードで一覧表示することで、非構造化データの活用方法が見えてくる。

 本ホワイトペーパーでは、ビッグデータの収集から分類、分析までを統合的に実行するテキストマイニングツール「IBM Content Analytics with Enterprise Search」の各種機能について紹介する。

※将来、当ホワイトペーパー提供者の事情により公開を停止する場合があります。

ホワイトペーパーのダウンロードページに進む

TechTargetジャパンサービス利用登録はお済みですか?

「TechTargetジャパン」メンバーシップのご案内

会員登録を行うことで、2000点以上の技術資料がそろったホワイトペーパーや興味・関心分野ごとに情報を配信するメールマガジン、ITmediaや@ITの特集記事がPDFでまとまって読めるe-bookなど、各種サービスを無料で利用できます。TechTargetジャパンサービス利用登録


Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ