企業は、ビッグデータの処理基盤をクラウドに移している。この動きは、それまでのITスキルを覆すことはないが、管理者や開発チームには幾つか変化が求められるだろう。
新しいビジネスチャンスを見つけるため、もしくは気付いていない不備、不満を見つけるために企業はビッグデータの活用を推進し続けている。以前に比べクラウドの利用ハードルが下がった今、企業はビッグデータをクラウドに送り込もうとしている。だが、ビッグデータの分析チームにはその準備ができているだろうか。
既に自社のデータセンター内でビッグデータへの取り組みを進めているとしても、クラウドでの成功が約束されるわけではない。多くの場合、新しいトレーニングとスキルセットが必須になる。
一般にクラウドでビッグデータを扱う場合は、オンプレミスの導入に比べてコストを削減できると話すのは、IT調査会社のEnterprise Strategy Groupでシニアアナリストを務めるマイク・レオネ氏だ。クラウドでビッグデータのシステムやプロジェクトを運用する場合、基本的にビッグデータの専門家をスタッフとして抱える必要はない。例外は分散処理フレームワークの「Hadoop」が関わる場合だけである。
「例えば、オンプレミスの5ノードHadoopクラスタをクラウドの5ノードHadoopクラスタに置き換えるのは実に簡単だ。だが、これを管理するのは難しい。特にソフトウェアの相互運用性に関連する課題が生じる」(レオネ氏)
ITトレーニング企業のLinux Academyでビッグデータ分析部門のディレクターを務めるマニーシャ・スーレ氏によると、ITチームは4つの主要分野に注目すれば、クラウドでビッグデータを適切に扱うことができるという。
楽天グループが「楽天市場」出店店舗向けに「楽天AI大学」を公開
2024年3月より提供している店舗運営支援ツール「RMS AIアシスタント β版」に加え、AIツ...
中国発AIソーシャル工作のゾッとする実態をMicrosoftがレポート
Microsoftが中国を拠点とする影響力工作の増加についてのレポートを発表した。これは米国...
顧客の応募可能性をレシートで分析 読売新聞が新たな販促キャンペーンサービスを提供
システムインテグレーターのビーマップと同社子会社のMMSマーケティングは、読売新聞東京...