このページの本文へ

まもなく2周年!北の大地に石狩データセンターあり ― 第1回

クラウドデータセンター内のコロケーションは「掌中の珠」にあらず?

石狩データセンターにはさくらも入れないゾーンがあった!

2013年10月10日 06時00分更新

文● 大谷イビサ/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

10月8日、インテルは同社が技術協力しているさくらインターネットの石狩データセンターの見学会を開催した。開所から2年でどこが変わったのか? レポート第1弾ではコロケーション需要での変化、そして最適化を目指したエアフローについて解説する。

2年ぶりの石狩データセンターはどこが違った?

 さくらインターネットの石狩データセンターは、2011年11月に竣工した国内最大級の郊外型データセンター。データセンターとしては異例の北海道の石狩市という立地、東京ドーム約1個分という広大な敷地面積、寒冷な外気を用いた外気冷却の全面採用、そして低廉な土地代とスケールメリットを生かした高いコストパフォーマンスなど、さまざまな特徴を持つ石狩データセンターは、次世代の日本のITを支えるメモリアルな施設といえる。

巨大な石狩データセンターの1号棟・2号棟

 先日インテル主催による石狩データセンターの見学会が開かれ、担当も竣工式以来、約2年ぶりに石狩データセンターに訪れる機会を得た。以下、さくらインターネット代表取締役社長の田中邦裕氏によるプレゼン内容と見学会を踏まえ、石狩データセンターの成長っぷりを見ていこう。

設備やサービスについて丁寧に説明してくれたさくらインターネット代表取締役社長の田中邦裕氏

 なお、開所時の記事は以下を参考にしてもらいたい。

さくらにも入れないサーバールームがある!

 2年前との最大の違いは、当たり前だがラック数が増えているという点だ。当初は200ラックだったが、現在は予約分まで含め、500ラック(2013年8月)にまで増加。A~Eまである1号棟の5つのゾーンも、すべてラックで埋め尽くされてしまった。

1号棟のラックの稼働状況

 当初との大きな違いは、自社サービスだけではなく、コロケーションでの利用が増えているという点だ。「当初、東京からこんなに離れたところにコロケーションする人はいないと考えていたが、今や半分の250ラックはコロケーションでお貸ししている。一番多い時は60~70人くらいが作業している状態で、事務所も増やした」(田中氏)とのこと。やはり東日本大震災以降のDR需要の影響は大きいようだ。

 驚くべきは、鍵が異なるため、さくらインターネット側ですら顧客といっしょでなければコロケーションスペースに入れないこと。また、配線の経路なども変えているほか、コロケーション用の1つの部屋は床免震設備まで入れており、データセンターのスペック自体も変わっている。「コロケーションならではのハイスペックな仕様の要求に対して、既存の設備内でできる高品質化はやっている」(田中氏)とのことで、モジュール構造ならではのメリットを活かしている。

 自社サービスに加え、コロケーションまで収益軸になり、さぞウハウハかというと、それほど単純な話でもないようだ。さくらインターネットのサービス全体を見ると、コロケーション(ハウジングや専用サーバー)の割合は年々減っており、サービスの主体はレンタルサーバーやVPS、そしてクラウドに移っている。また、クラウド前提で考えたデータセンターであれば、やはり統合したクラウド基盤を構築した方が、コスト面でも、PUEの面でもよいに決まっている。

 こうした中、今後コロケーションのスペースをどの程度取り入れていくのは社内でも課題となっている。「現在、3号棟の計画を練っている途中だが、コロケーションはやめようという結論になりつつある。コロケーションを前提にすると、スペックを最大公約数的にせざるをえない。また、せっかく(失敗しても痛手を被らない)小さい単位で投資するモジュラー構造にしたのに、大きな単位で投資したほうがよいという話になる」(田中氏)。こうした結果を受け、ゾーン自体を現在の100ラック単位から変更したり、2号棟をコロケーション前提で使うなどの可能性もあるとのこと。田中社長の悩みは今後も続くようだ。

空調はやっぱりアイルキャッピングがよかった!

 石狩データセンターといえば外気冷却。石狩の冷涼な気候を活かし、サーバーを効率よく冷やすことで、年間の空調エネルギーの80%を削減する。空調エネルギーの削減は省エネの切り札だけに、2年間でさまざまな試行錯誤があったようだ。

 さくらインターネットが自社サービスで利用しているサーバールームは現在1号棟のA、B、Cゾーンの半分となっているが、それぞれエアフローが異なっている。開所時に設立されたAゾーンでは、外から取り入れた外気を排気と混合し、壁に設置された巨大なファンでサーバールームに送り込む「壁吹き出し」という方式を用いている。外気冷却では一般的だが、「肌や目が乾燥するので、作業をする人にとっては厳しい環境。風速の強いところや場所などで温度のムラも出やすい」といった弱点があったという。

壁の巨大なファンで外気を送り込む壁吹き出しを採用したAゾーン

 続いてBゾーンでチャレンジしたのが、混合した空気を空調機で天井から送り出す天井吹き出し方式だ。この方法だと壁吹き出し方式に比べ、温度や湿度の分布も悪くないが、「ダクトが細いという根本的な弱点にぶちあたった。細いダクトで空気を高速に送ると、風速が必要で、電気代がかかる」(田中氏)という課題があったという。

Bゾーンの天井吹き出し

 この結果、スペースの半分を自社利用しているCゾーンでは、前面吸気・背面排気のIT機器をラックに積め、排気側の通路を天井からまるごと覆ってしまう「アイルキャッピング」を採用している。都心型データセンターではきわめて一般的な方式だが、試行錯誤の末、この方法がもっとも冷却効率が優れているという結論が出たという。田中氏は、すでに導入が済んでいるA/Bゾーンすらアイルキャッピングに変更する可能性まで示唆した。

Cゾーンではアイルキャッピングを採用し、暖気を通路に閉じこめる天井までバッチリ、キャッピングされているのがわかる

 田中氏は、「ラックごとに冷却という方法もあるが、この場合、サーバーの出す排気と天井からの吸気のタイミングを合わせなければならない。気圧が上がって、排気が戻って来てしまう。アイルキャッピングの場合は、広い空間が確保されているので、ゆっくり排気できる」と語る。自社で実験・検証して、最適解を導き出す。仮説が誤っていたら、すぐに方針を変える。あらゆる面で顔を出す「さくら流」が空調1つとっても、明確に現れている。

 次稿では、インテルとさくらインターネットの取り組み、HVDCや超伝導などエネルギー施策などについて解説していく。

■関連サイト

カテゴリートップへ

この連載の記事
ピックアップ