少数の大規模データセンターにサービス配信を統合するための強力な経済議論が醸成される一方で、数多くの要因によってその推進が阻まれているという現実もある。
まず、地理的な冗長性が求められる。第2に、法律上、データのローカルでの保管が要求されたり、運用地域が制限されることがある。幾つかの企業やグループは、米愛国者法(パトリオット法)および関連する法律の対象になることを避けるため、米国内にデータを配置すべきではないと考えてている。
同様に、他国におけるプライバシー基準や、法的責任、知的財産などの問題がある。数多くのケースで、すでにオープンなインターネットを通じて多数の海外の法的管轄に流出しているデータに比べれば、こうした懸念はそれほど実際的ではないかもしれない。また、実際にデータ保管場所が制限されているケースでも、こうした制限の効力に関する広範な合意はまだ成立していない。
にもかかわらず、多くの企業がこの前提に立ってビジネス決定を行っており、データを保存する場所に制限を設けている。そのため、サービスプロバイダーはこうした企業にアピールするために地域のデータセンターを使うようになる。数多くのサービスプロバイダーは、効率的な運営には適さないにもかかわらず、世界に拡散するデータセンターのネットワークの利用を選んでいる。低価格のコンテナモデルは、遠隔地の小規模データセンターを手ごろな価格で構築することを支援する。
搬送用のコンテナは、コンピューティングとストレージの双方にとって、風雨に耐え得る住宅となる。したがって、過去何年にもわたってデータセンターの決定的な特徴とされてきた、広大なラックルームやフローティングフロアは不要となる。
中心となる建物は、セキュリティ、電力供給、ネットワーキング、冷却装置を収容するため依然として必要だが、コンテナは戸外に安全に配置できる。つまり、コンテナを配置するためにフェンスで囲われ、安全を保たれた舗装エリアを、中心となる建物の周辺に確保することが唯一の要件となる。このコンテナは、3〜5段に積み重ねることが可能であり(船上では7段で積載)、低価格の構築コストにおいて、高集積度のデータセンターを実現する。
このマクロモジュールで構成されたデータセンターは、構築費用が安いだけではなく、移動費用も安価である。別の場所で低コストなネットワーク帯域幅が利用できる場合や、有利な税制が適用できる場合、そして、現在の場所でデータセンターが不要になった場合には、データセンター全体をトラックで移動できる。固定資産は中心となるサービス用建物とフェンスで囲まれた構内だけであり、売却あるいは撤去の必要がある1億5000万ドルの施設ではない。
データセンターの設計と建設には時間が掛かる。15メガワットの施設を構築するのに、24カ月以上を要する。モジュール式のデータセンターにより、このプロセスを速めることが可能かもしれない。現実に、既存のデータセンターを拡大する際、このアプローチを用いれば建築許可は不要で、建築物に課される税金も発生しない。
現地でのハードウェアサービスは、データセンターごとに熟練したサービス要員の配属が必要なため、高くつく可能性がある。しかし、コンテナ型の提案を採用することで、そうした経費のかなりの部分が排除される。
データセンターにフルタイムのサービス技術者を配属することは、その設備が大規模なものでない限り、なかなか費用効果が上がらない。大半のサービスで、この作業は外部に依頼するため、その費用は3年間の耐用年数を通じて、システム価格の25%を占めることになる[14]。
しかし、コスト削減よりも重要なのは、データセンターにサービス要員を配置しないことでエラーを回避することである。アーロン・ブラウン氏のリポートでは、システム停止の原因における20〜50%が、人為的なミスとされている[3]。さらに言えば、サービスにおける全体的な可用性の向上は、コスト削減よりも重要なメリットである。
ここで提案するアプローチの場合、必要な現地でのサービスは、集中化された電力供給、冷却装置、ネットワーキング、セキュリティの設置と管理だけである。設置はネットワーク、冷却装置、電力供給しか必要としないため、現場で必要なスキルはほとんどない。
現代の典型的なデータセンターでは、1平方フィート当たり約100ワットの電力密度がサポートされている。中には1平方フィート当たり350〜600ワットというレベルで運用されているデータセンターもある。
こうした比較的低い電力密度が、データセンターのフル運用を妨げている。また、充分な電力が供給可能な場合でも、熱密度がしばしば問題になる。ウルス・ヘルツル氏の説明によると、Googleのデータセンターが1Uのシステムデザインを採用し、それ以上の電力密度を検討しないのは、ほとんどのデータセンターで必要な電力と冷却の供給が不可能であるためだという[8]。
例えば、Oak Ridge National Labでは、35キロワット対応ラックのための冷却要件をモデル化している[13]。この仕様をサポートするために必要な気流は、断面が6フィート四方の冷却管を想定すると222,000CFM(立方フィート毎分)になる。
この研究では、必要になる台数分のコンピュータールーム空調設備(CRAC)が占めるスペースは、システム自身のスペースとほぼ同じになると結論付けられた。この結論には、ラック周りの気流および、メンテナンスに必要な通路のためのスペースは含まれていない。言い換えると、データセンターの床面積の50%以上が非生産的に占拠されているということだ。
Oak Ridge National Labの事例は、空水冷式冷却の効率の悪さを示している。この方式では、マシンルーム内のCRACを循環する冷却剤を、冷却プラントを用いて冷やす。CRACは排熱を取り除くためにラック間を循環している空気を冷却する。これが今日大半のデータセンターで用いられているアプローチである。
メインフレームの事例で周知の通り、直接的な液体冷却は集積度の高いシステムをサポートできる。空気と比べて液体の方が、ずっと高い比熱を持っているからだ。これは、それほど新しい発見ではないが、ソリューションとしては忘れられているように思われる。
液体による冷却というのは1960年代の主流で、例えばIBMは308x/309xシリーズの熱伝導モジュール(TCM)で1980年代半ばまで採用していた[9]。IBM研究所が最近構築したストレージシステムは、どれだけの熱密度に対して、直接的な液体冷却が効果的であるかを示している。IBM Ice Cubeと名付けられたこのシステムは、22.5インチの立方体に324台のディスクを収納する[13]。液体冷却式のシステムラックも現在購入が可能である[18]。しかし液体冷却は、その複雑さとサービスリスクのために、ラックを積み重ねるインターネットサーバファームでは広く受け入れられてはいない。
このマクロ・モジュール・コンテナは、CRACユニットのスペース要件を取り除くために、直接的な液体冷却を用いる。また、人的なサービスや大量の気流のためのスペースも必要ない。結果として、従来からの空気冷却式のラックと比較して、システムの集積度はずっと高いものになり得る。
直接的な液体冷却の唯一の欠点は、液体の漏れにより、システムにダメージを与えるリスクだろう。しかし、このサービスいらずのアプローチでは、コンテナ内の液体配管は工場出荷時に封印され、開かれることはない。
九州電力株式会社情報通信部に在籍後、九電子会社の役員を経て株式会社インフォテック アドバイザリーを設立、代表取締役に就任。同社では、電気通信事業や情報通信技術などにかかわる調査・研究や、人材育成のアドバイザーなど幅広いコンサルティング業務を展開している。
Windows ServerおよびAzure、Hadoopを専門とする、翻訳家でありコンサルタント。wipseの事務局長を務め、Azure User GroupのJapanローカルグループをホストしている。ブログは「Agile Cat」
content on this article is licensed under a Creative Commons License.