液浸冷却(Liquid Immersion Cooling)とは

✍️ DCトレンド研究編集部
#液浸冷却 #冷却技術 #AI #GPU #省エネ

液浸冷却とは

液浸冷却(Liquid Immersion Cooling) とは、サーバーなどのITハードウェアを電気的に絶縁された特殊な液体に直接浸して冷却する技術です。従来の空冷(エアコン・FANによる冷却)と比較して、劇的に高い冷却効率を誇ります。

液体は水よりもはるかに高い熱容量(比熱)を持つため、同じ体積でより多くの熱を運べます。これにより、空冷では対応困難な超高密度環境(GPUサーバー、AIアクセラレーター)でも安定した冷却が実現できます。


なぜ今、液浸冷却が注目されるのか

AIブームがもたらした電力密度の急騰

2023〜2026年のAI(Large Language Model)ブームにより、データセンターのラック電力密度は劇的に上昇しました。

時代標準的なラック密度冷却方式
2010年代5〜10 kW/ラック空冷(エアコン)
2020年代初期10〜30 kW/ラック空冷 + 補助液冷
2024〜2026年(AI)50〜100 kW/ラック液冷必須
将来(次世代GPU)200 kW/ラック超液浸冷却が事実上必須

NVIDIAのGB200(Blackwell世代)や次世代チップは1ラックあたり100kW超に達します。ここまで密度が上がると、空冷では物理的に排熱が追いつかず、液冷は選択肢ではなく必須になります。


液浸冷却の仕組み

1. シングルフェーズ液浸(Single-Phase Immersion Cooling)

サーバー基板ごと専用の**誘電性液体(絶縁オイル)**に浸漬します。液体は循環ポンプで流れ続け、熱交換器(チラー)で冷やされて循環します。

代表的な冷却液:

  • 3M Novec™(フッ素系)— 環境規制により段階的廃止予定
  • Shell Diala™(鉱物油系)— 低コスト、GWPゼロ
  • Engineered Fluids(エステル系)— 生分解性・次世代主流

特徴:

  • 設備コストは空冷の2〜4倍程度
  • PUE 1.02〜1.05 を実現(業界最高水準)
  • メンテナンス時に液体から取り出す手順が必要

2. 2フェーズ液浸(Two-Phase Immersion Cooling)

サーバーの発熱で冷却液が沸騰(気化) し、気化熱を奪う方式。蒸気はコンデンサーで再び液化して循環します。原理は冷蔵庫と同じです。

特徴:

  • 冷却効率が最高水準(気化熱を利用するため)
  • 冷却液コスト・GWP(温暖化係数)の管理が必要
  • 現状は実証段階〜先行事例レベルで、商用化は進展中

メリットと課題

メリット

① 圧倒的な冷却効率
液体の熱伝導率は空気の約25倍以上。空冷では限界だった100kW超/ラックも安定して冷却できます。

② PUEの大幅改善
エアコン・FANが不要になるため、冷却に使う電力が激減。PUE 1.02〜1.1 は空冷では到底実現できない水準です。

③ ファンレス化による騒音・振動の消滅
サーバー内のFANが不要になるため、施設内が静かになります。これは地域立地(住宅近接)の面でも有利です。

④ ハードウェア寿命の延長
温度変化が少なく、埃やサビの影響も受けないため、機器の寿命が延びるという報告があります。

⑤ 廃熱の有効利用
液冷では廃熱が高温の液体として回収されるため、地域暖房や温水プールへの転用がしやすくなります。

課題

① 導入コストの高さ
タンク・冷却液・ポンプ・配管のコストが嵩みます。現状では空冷比 2〜5倍の初期投資が必要です。

② 既存設備への導入困難
既存のラック・空調設計を大きく変更する必要があり、レガシーDCへの後付けは難易度が高いです。

③ 運用ノウハウ不足
液浸冷却を扱える技術者が少なく、国内では特に人材が不足しています。

④ 冷却液の環境規制リスク
フッ素系液体(PFAS)への規制が世界的に強まっており、3M Novec は2025年末に製造中止となりました。代替液体への移行が課題です。


国内外の採用事例

海外の事例

Microsoft(アリゾナ州)
AI特化のクラウドDCで2フェーズ液浸を採用。冷却エネルギーを75%削減したと発表しています(2024年)。

Google
次世代AIアクセラレーター(TPU)向けに直接液冷を全面採用。PUE 1.1 以下を達成する施設を複数運用中です。

Submer・Iceotope(欧州スタートアップ)
液浸冷却専門ベンダーとして急成長中。欧州のAIスタートアップや研究機関への納入実績を積んでいます。

国内の事例

さくらインターネット(石狩DC)
2023年よりGPUクラスタ向けに液冷(直接液冷)の導入を開始。石狩という立地のフリークーリングと組み合わせ、PUE の大幅改善を進めています。

NTT コミュニケーションズ
「Green DC」構想の一環として液浸冷却の実証試験を複数拠点で実施中(2025年発表)。2026年度中の商用化を目指しています。

KDDIグループ
エッジDC向けの小型液浸冷却ユニットを実証中。特に郊外・工場内設置を想定した小型モジュールに注力しています。


エンジニアの現場感

実際に液浸冷却を扱った現場の感想として、「思ったより油まみれになる」 というのが正直なところです(笑)。メンテナンス時に基板を液体から引き上げる際、専用の作業着・手袋が必要で、習熟するまでは心理的ハードルが高いです。

ただし、冷却トラブルの激減 は本物です。空冷環境では夏場に「ラック内温度上昇→サーバー過熱→スロットリング→性能低下」という悪循環が起きることがありますが、液浸ではそのリスクがほぼゼロになります。AIトレーニングのような長時間・高負荷ワークロードでは、この安定性は非常に大きな価値があります。


まとめ

液浸冷却は、AIブームがもたらした超高電力密度の問題に対する現実的な解答の一つです。2026年時点では「先進的な選択肢」ですが、GPU密度が今後さらに上昇すれば、2030年代には「標準技術」になる可能性が十分あります。

DX担当者・IT調達担当者にとっては、AI推論基盤やGPUクラスタの調達時にDC側の冷却方式を確認することが、長期的な稼働安定性の判断材料になります。「液冷対応DCか否か」は今後の施設選定の重要条件になっていくでしょう。

💡 エンジニアメモ: 「液浸冷却は高い」というイメージがありますが、電力コスト・故障率の低減・寿命延長を含めたTCO(総所有コスト)で評価すると、高密度環境では空冷と比べてもコスト競争力が出てきています。5〜10年スパンで見た場合の比較を必ず行うことをお勧めします。

関連用語

この記事は DCトレンド研究 が独立した第三者の立場で執筆しています。