シュナイダーエレクトリック開催のパネルディスカッションレポート
液浸冷却から直流800V給電、デジタルツインまで 理研とアット東京が語るAIデータセンターの未来
2025年12月16日 08時00分更新
“GPUの進化”をサービスに反映する流れは変わらない
須田氏:今回のSC25は、NVIDIAパートナーというロゴが目立ち、各社NVIDIAのチップをどう扱うかというソリューションが多かったです。
錦織氏:アット東京は、企業同士をつなぐ接続性を重視していますので、超密度なサーバーを大規模に入れることは想定していないですが、規模を落とした形で導入したいという声はいただいています。こうした対応のために最新情報を収集して、どのような形で構築していくかという検討は続けていきたいです。
三浦氏:私は、東京工業大学でTSUBAMEを運用していましたが、これは世界初のGPU搭載スーパーコンピューターでもあり、その頃からNVIDIAと密に連携していました。それは、今の理研でも続いています。GPUの導入において電源や冷却がネックになるということは2010年代からはっきりしており、SCのような展示会に出てくるソリューションが重要なのは今後も変わらないです。
須田氏:基本のアーキテクチャーは変わらず、未来の3、4年後のデータセンターもGPUがどんどん進化して、それをどうサービス面に反映させていくかという流れは、しばらく変わらないというイメージですか。
三浦氏:少なくとも富岳NEXTではGPUを導入することが決まっているので、そこは変わらないことを信じたいですね。
省エネに対応する「デジタルツイン」、1ラック100W時代に向けた「液浸冷却」
須田氏:最後に、データセンターにおける課題と、今後のAIインフラの展望を教えてください。
錦織氏:今回のSC25では「デジタルツイン」も散見され、サーバーから施設の状態を見える化して、運用を最適化する事例が発表されていました。アット東京も、CFDやBIMなどの技術を活用して見える化を進めています。ただ、それを顧客への提案に活かすまでは至っていないです。今後、高密度なサーバーを入れるとより運用がシビアになるため、省エネにもつながるような仕組みを作って、展開していきたいです。
三浦氏:デジタルツインは非常に大きな問題です。理研でもスーパーコンピューターを運用する上で、施設・設備をいかに効率的に運用するか、いかにカーボンニュートラルなエネルギーを使っていくかを重要視して、デジタルツインを積極的に活用しようと考えています。
もうひとつテーマに挙げられるのは、2030年以降の冷却システムがどう変わっていくかです。その中で「液浸冷却」がターゲットのひとつになると思います。
2030年までは直接液冷方式が中心になると想定していますが、そこから先は熱密度がどんどん高くなっていきます。ただ、かつて東京工業大学の「TSUBAME-KFC」において液浸冷却に取り組みましたが、SC25の展示を見てもそこからあまり変わっていないのが少し残念な状況です。現実には、2030年に向けて1ラックあたりの消費電力量が1MWに達すると言われており、それ以上のレベルでは液浸冷却などの技術開発を進めないと冷却できなくなっていきます。
液浸冷却を使用するTSUBAME-KFCの計算ノード群(東京工業大学のニュースリリースより)
須田氏:1ラック1MWを超えると、どうやって電力を送るかも問題になります。
三浦氏:さきほどの直流800V給電を実現する必要がありますね。大きな問題としては、日本の法規制では、我々が簡単に作業できる電圧(低圧)が750Vで区切られています。これを、世界標準のもっと高い電圧にまで引っ張っていかないと、一般的なデータセンターでの展開は難しいです。
須田氏:データセンター事業によくある、人手不足の問題はどう考えられていますでしょうか。
錦織氏:現在、技術が急速に進化している最中であるため、データセンター側では設計の標準を定めにくい状況です。それでも標準化しつつ、常に変えられるような体制を組んで少しでも省力化していく必要があるます。
須田氏:構築するまでのスピードも求められていそうですね。
錦織氏:常に短い納期を求められているため、顧客にとっても我々にとっても標準化が必要になります。
以上がパネルディスカッションの内容である。なお、2026年1月には、アジアにおけるスーパーコンピューターの国際会議・展示会である「SCA/HPCAsia 2026」が日本の大阪で開催され、AI、インフラ関連の最新技術が披露される予定だ。










