ITmedia NEWS >

混み合うデータセンターをどう冷やすか

» 2004年05月31日 14時42分 公開
[IDG Japan]
IDG

 サーバベンダー各社が性能を強化し――かつ小型化を進めた――システムを投入する中、IT管理者は、従来よりも小さなスペースにこれまで以上の処理性能を詰め込んだ新しいシステム構成の放熱・消費電力について考える必要に迫られている。

 これまで企業各社は、データセンター内で冷却の必要性が高まると、空調設備を追加することで解決してきた。しかしサーバの処理性能が高まり、サイズがより小さくなるにつれ、放熱と電力消費の問題はそのようなやり方では解決できなくなっている。

 Apple ComputerのG5ベースシステム約1100台でスーパーコンピューティングクラスタを構築した米バージニア工科大学を例に挙げよう。このクラスタを適切に冷却するための策として、同校のエンジニアリングチームは、従来の空調設備を使い、サーバ群をメインデータセンターの総床面積1万平方フィート(約930平方メートル)に分散させて設置することを推奨した。

 「1万平方フィートの面積に(クラスタを分散させる)設計は、実際には選択肢とはならなかった」と同校クラスタコンピューティング研究ディレクターのケビン・シンポー氏。同氏は、Terascaleクラスタを管理する同校Terascale Computing Facilityの副所長も務める。同氏によれば、データセンターにはこれまでに導入したほかのシステムがあったため、データセンターのスペースすべてをクラスタに割り当てることはできなかったという。

 シンポー氏はサーバを冷却するためのほかの選択肢を模索した結果、Liebert製の精密冷却システムの採用を決定した。このシステムは、ラックから排気される熱を吸収し、ラックあるいは天井に取り付けた空調設備を利用する。

 「(クラスタの設置スペースとしては)およそ3000平方フィートが利用でき、(Liebertの)斬新な冷却手段は、私たちが必要としていたことを可能にしてくれた。これ以外の選択肢としては、新しい建物を建設するしかなかっただろう」とシンポー氏。

 シンポー氏によれば、バージニア工科大は冷却機器の購入と電力の追加に約200万ドルを投じたが、現在データセンターの給電・冷却能力には余裕があり、向こう2〜3年間はシステムを追加しても対応できるという。

 「200万ドルの投資によって、私たちは既存のスペースを有効利用することができた。初期コストを乗り切れば、クラスタの追加や新しいクラスタの構築は簡単だ」と同氏は語っている。

 テキサス州オースティンに本拠を置くApplied Materialsのプロジェクトマネジャー、マーク・ネルソン氏もまた、同社のデータセンターを過密化するシステム構成に対応できるよう設計したと話す。現在このデータセンターでは、1平方フィート当たり約75ワットの電力消費に対応しているが、実際にはその約39%しか使用していない。

 「機器を増やし、新技術を導入するにつれ、1平方フィート当たりの使用ワット数が上昇し始めると予測している。(使用可能ワット数の上限の)75%に近づくだろう」と同氏。

 同社では冗長電源システムを走らせているため、障害時にはフェールオーバーが即実行され、また放熱量が同氏が想定する最悪のシナリオを上回った場合に備えて予備の空調を用意しているとネルソン氏は説明している。

 データセンター内のダウンタイム削減を目指す業界コンソシアムUptime Instituteによれば、今日のデータセンターにおける熱密度は1平方フィート当たり平均28ワット程度だという。

 同団体のエグゼクティブディレクター、ケネス・ブリル氏は次のように話す。「この数字はここ2〜3年上昇しているが、ブレードサーバを使用した時の熱密度には遠く及ばない。ブレードサーバの場合、大規模に導入すると1平方フィート当たり400ワットに達することもある」

 同氏は、1ラック当たりの放熱量が最高14キロワットに達したとの報告をブレードサーバユーザーから受けたこともあるという。この数値は、家庭用電気オーブンおよそ2台分に相当する。

 コンサルティング・アウトソーシング企業Capgeminiのインフラマネジャー、シース・ド・コイヤー氏は、コンピューティング性能をコンパクトなスライス状にしたブレードサーバ技術を自社のデータセンターに導入するのは、この技術の進化を待ってからにしたいと言う。

 「ブレードサーバにはいくつかの問題がある――その1つが放熱量、もう1つは電力だ。当社では今のところ、基本的に調達サイドでブレードサーバを禁止している」(同氏)

 Gartnerが昨年末に発行したリサーチノートでは、ブレードサーバや高密度化が進むラックマウント型システムといった新技術の導入について慎重に検討するよう法人ユーザーに注意を促している。

 「データセンター施設のスタッフとサーバ調達スタッフ間における慎重なプランニングや調整なしに、データセンターでサーバ導入の拡大とそれに伴う電力供給設備や冷却設備の増設を実施することはできない」とGartnerのアナリストは記している。「2008年末までは、企業データセンターの90%が、サーバの放熱問題と冷却の必要性から理論上の最大サーバ密度に達することができないと同社は確信する」

 とは言え、しばしばコスト高に付くデータセンターのスペースを節約しつつ、必要なだけの高い処理性能を導入することが不可能というわけではない。Gartnerによれば、大半の企業向けサーバベンダーは、企業顧客の電力・冷却能力の限界を測定する査定サービスを提供しているという。

 LiebertやAmerican Power Conversionなどでは、ACおよびDC電力供給製品や、高密度システムを冷却するための精密冷却機器を提供している。ハードウェアベンダーや半導体メーカーもこの問題に注目しており、IntelやAMDは省電力プロセッサを提供している。Intelは来年あたりにItaniumとXeonに電力管理技術を追加する計画で、これによりユーザーは消費電力の上限を設定でき、CPUはニーズに応じてオン・オフを切り替えられる。

 それでもなお、データセンターにおける電力消費と放熱の問題を監視する必要性は高まり続けている。特にクラスタやグリッドコンピューティングなどの分散コンピューティングアーキテクチャを導入している企業ではその傾向が強い。

 Toshiba America Electronic Componentsは、カリフォルニア州サンノゼとマサチューセッツ州マルボロにあるデータセンターで電子設計自動化アプリケーションを利用するためのサーバクラスタ導入に向け、Rackable SystemsのIntelベース専用サーバと自社の分散型DC電力技術を採用した。

 シアトルにある同社のASIC・ファウンドリ事業部門担当副社長リチャード・トビアス氏は、DC電力供給は従来のAC設備よりも小型なため放熱量が少なく済み、過熱と停電の恐れが少ないとしている。さらに、Rackableのサーバは高密度導入向けに設計されており、背面同士を合わせる形でラックに収納されるため、熱がラックの上部に押し出される。

 「当社が重視した主な要素は、システムを増築し、ある程度のコンピューティング密度を実現するに当たっての1ラック当たりのコストだ。(DC変換によって)電力を節約できれば、ラックにもっと多くのサーバを積み、ラックの処理能力を高めることができる」とトビアス氏。

 最も重要なことは、IT管理者がデータセンター施設のチームと緊密に協力し合い、電力・冷却の要求が高まるとサーバ導入にどう影響するかを正確に理解することだ。多くの場合、データセンターでは十分な通気と冷却が行われているもので、単に調節が不適切であるためにその能力が発揮しきれていないとUptime Instituteのブリル氏は指摘している。

 「比較的小さな変更を施すだけで、2年ほど耐え得る十分な能力を回復できるものだ」と同氏は言い添えた。

Copyright(C) IDG Japan, Inc. All Rights Reserved.