次にラックそのものについてであるが、ラックの扉の選択がラック運用に大きく影響する。扉には密閉型とメッシュ型があるのだが、ケースバイケースで使い分けるとよいだろう。
具体的な話をすると、ラックの下から上に冷気が抜けるような構造であれば密閉型のほうが冷えるのだが、奥行きが長いマシンがあると、そこで空気の流れがさえぎられるため、そのマシンより上のスペースが熱くなる。そういった場合は後方をメッシュ扉にすればそこから熱がラック外に逃げるために、冷えは多少良くなる。前後ともメッシュ扉でエアフローも前後となる場合に関しては、ラックの上方に設置されたサーバは熱の影響を受けやすいので気をつけよう(熱い空気は上に上がる)。
また、扉には透過型か非透過型かという選択もあるが、ラック内が見える扉は運用時に機器のステータスランプが見やすい反面、誰でもラック内部が見えるので、情報保護の観点からは不利である。最近は中が見えない扉を選択することが比較的多いようだ。
その他、気をつけたい点は、
といったところがあげられる。ちなみに、ユニットを勘定するときに下から数えるか、上から数えるか、数え始めはどこからかについては、社内でも意見が割れた。恥ずかしながら「コレ!」という根拠にたどり着けなかったので、正解をご存じの方がおられたらぜひ教えていただければ幸いである。
設計段階でのこだわりポイントは、搭載機器の配置と電源である。これは筆者の主観になってしまうが、システムはシンプルなものが美しいと思っている。
では、ラックはどうなれば美しいか。ぱっと思い浮かぶのは雑誌や広告でよく見かけるアレである。林のようにそびえ立つラックの中に隙間なく機器がマウントされていてたいへん美しく見える。
しかし、やってみればすぐ分かることだが、あのように機器を設置しようとしても現実には非常にハードルが高い。
といったあたりがその理由だ。
1や2についてはある意味読んで字の如しなのだが、特に3は、最近のCPUの性能向上に伴い顕在化した問題であり、非常に深刻である。
1Uのサーバなどはまだいいほうで、ブレードサーバなどでは、ユニットあたりのCPU数が非常に多くなる。1ラック当たりの供給電力が100V/20Aなどだとそもそも電力不足で機器を搭載できないし、給電容量を増やして無理やり詰め込んだとしてもその分ランニングコストが跳ね上がる。また、発熱もすごくなるので、強力に冷やさなければいけない。冷やすためにはまた電力が必要……といった感じで高密度実装は条件が厳しく、コストがかかるのである。
よって、現実には多少隙間をあけて機器を設置することが多い。贅沢を言わせてもらえば、一台ごとにスペースを空けたいくらいである。
Copyright © ITmedia, Inc. All Rights Reserved.