良い値段  オンライン

商品の詳細

Created with Pixso. ホーム Created with Pixso. 製品 Created with Pixso.
AI対応データセンター
Created with Pixso. 20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター

20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター

ブランド名: Soeteck
モデル番号: SYICDC40
MOQ: 1
価格: To Be Negotiated
配達時間: 5-10週
支払条件: D/A
詳細情報
起源の場所:
中国
証明:
CE, ISO, UL
配置時間:
5-10週
棚の量:
4/9/12個
単一の棚容量:
42u
最高単一の棚。容量:
50/60/100kW
電力供給器:
請求あり次第
冷却タイプ:
液冷/空冷/水冷/冷水
ラックの寸法 (幅*奥行き*高さ):
600*1100*2000mm
アプリケーション:
AI トレーニング、エッジ コンピューティング、リモート サイト、災害復旧
監視システム:
はい
ドアセキュリティシステム:
はい
EPO:
はい
ビデオ モニタリング システム:
はい
パッケージの詳細:
20/40フィートのハイキューブコンテナ
供給の能力:
10000/月
ハイライト:

20フィートCDUデータセンター

,

ラックマウントCDUデータセンター

,

20フィートの冷板データセンター

製品の説明

AI対応データセンター向け20フィートコールドプレートラックマウントCDUデータセンターコンテナ

AIトレーニングワークロード、特に大規模言語モデル(LLM)やハイパフォーマンスコンピューティング(HPC)タスクは、これまでにないレベルのコンピューティング能力を必要としますが、従来の空冷データセンターでは対応が困難です。高密度GPUクラスターに対応できる冷却効率がなく、インフラが硬直しているため、都市部のエッジサイト、工業団地、遠隔地のデータセンターハブなど、AI対応運用に不可欠なさまざまな場所に柔軟に展開することができません。

AI対応データセンター専用に設計された 20フィートコールドプレートラックマウントCDUデータセンターコンテナは、これらの課題を単一の統合パッケージで解決します。断片的な冷却システムとは異なり、この20フィートコンテナは、コールドプレート液体冷却を中核とする集中型のラックマウントCDU設計を採用しており、エネルギーを消費し、AIのパフォーマンスを制限する複雑なエアフロー管理、高床、またはサーバーファンを不要にします。

ラックマウントCDU駆動のコールドプレート技術を活用することで、冷却液は精密なコールドプレートを介してAIハードウェア(GPU、コンピューティングノード)に直接供給され、高密度コンポーネントから効率的に熱を捕捉し、最も負荷の高いAIトレーニング負荷の下でもチップを冷却します。この自己完結型の20フィートソリューションは、展開が容易で、スケーラブルであり、AIワークロードに最適化されており、信頼性やエネルギー効率を損なうことなく、あらゆる場所を高性能AI対応データセンターに変えます。


製品ファミリー

モデル 冷却アーキテクチャ ラック/タンク数 最大電力密度 総容量 コンテナタイプ 寸法(長さ*幅*高さ)
20フィート浸漬 単相浸漬
(統合FDU)
4つのタンク 100 kW / タンク 400 kW 20フィートハイキューブ 6058 x 2438 x 2896 mm
40フィート浸漬 単相浸漬
(統合FDU)
12個のタンク 100 kW / タンク 1.2 MW 40フィートハイキューブ 12192 x 2438 x 2896 mm
40フィートコールドプレート(インロー) インローCDU
(液体対液体/エアアシスト)
12ラック
(CDU用スペース)
60 kW / ラック 720 kW 40フィートハイキューブ 12192 x 2438 x 2896 mm
40フィートコールドプレート(ラック) ラックマウントCDU
(分散マニホールド)
14ラック
(スペース最大化)
50 kW / ラック 700 kW 40フィートハイキューブ 12192 x 2438 x 2896 mm
20フィートコールドプレート(ラック) ラックマウントCDU
(分散マニホールド)
5ラック 50 kW / ラック 250 kW 20フィートハイキューブ 6058 x 2438 x 2896 mm

製品の特徴

20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター 0

AIに最適化されたエネルギー効率

浸漬冷却は、サーバーファンや非効率な空冷システムのエネルギー消費を排除します。液体は空気よりもはるかに効果的に熱を伝達するため、標準的な空冷コンテナと比較して、全体的なエネルギー使用量を大幅に削減します。AI対応データセンターにとって、これは、電力消費の大きいGPUクラスターの運用コスト(OPEX)の削減を意味し、大規模LLMトレーニングワークロードのカーボンフットプリントも削減します。


保護された高性能AIハードウェア

密閉された浸漬タンク設計は、貴重なAIハードウェアを埃、湿度、環境汚染物質から保護します。これは、従来のデータセンター以外の場所での展開に不可欠です。さらに重要なことに、安定した一貫した熱環境は、AIチップを熱スロットリングなしでフルスピードで稼働させ続け、LLMトレーニングやその他の高密度AIワークロードのコンピューティングパフォーマンスとハッシュレートを最大化します。


AI対応データセンターソリューションのフルシリーズ


高密度データセンターのコア冷却ニーズに焦点を当て、当社のプレミアム製品の全範囲は、高度な技術的利点を活用して、継続的で効率的かつ安定した運用を確実に保護します。

キャビネットあたり5〜30 kW

コールドアイルデータセンター

気密コールドアイルエンクロージャ、90%以上の冷気利用率、PUE ≤ 1.2、中密度IT負荷向けに迅速な展開と柔軟な拡張が可能。

合計電力10〜80 kW

20フィートコンテナDC

プレハブオールインワン設計、防振・防塵、プラグアンドプレイ、エッジコンピューティングや一時的なコンピューティング需要シナリオに最適。

キャビネットあたり30〜100 kW

40フィートコールドプレートコンテナDC

ハイブリッド空冷・液冷、GPU/CPUからの直接熱放散、AI対応設計、低エネルギー消費で高電力密度を実現。

キャビネットあたり50〜200 kW

40フィート浸漬コンテナDC

誘電性液体による浸漬冷却、空冷よりも100倍高い熱放散効率、PUE ≤ 1.1、超高密度AIクラスターに最適。

アプリケーション


高ワット数のコンピューティング需要に対応する優れた熱管理により、次世代インフラストラクチャを強化。

20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター 5
AIトレーニング&HPCクラスター
20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター 6
高密度データセンター
20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター 7
モジュール式&コンテナソリューション
20フィート 冷板ラックマウント CDU データセンター コンテナ AI 準備済み データセンター 8
ブロックチェーン&暗号通貨マイニング

よくある質問


1. データセンターが「AI対応」と定義されるのはなぜですか?
AI対応データセンターは、極端な電力密度と熱管理のために設計されています。重いGPUクラスター用の強化された床荷重、ラックへの高電圧配電(415Vまたは480Vなど)、およびキャビネットあたり40kWから100kW以上の電力をサポートできる柔軟な冷却アーキテクチャを備えています。
2. インフラストラクチャは、高性能ネットワーキング(RDMA)をどのようにサポートしていますか?
当社のAI対応モジュールは、InfiniBandおよびRoCEネットワークに必要な高密度ファイバー数を処理するために、特殊なオーバーヘッドケーブル管理システムで設計されています。遅延を最小限に抑え、400Gおよび800G光相互接続に必要な厳格な曲げ半径を維持するために、最適化されたケーブルパス長を確保しています。
3. NVIDIA BlackwellまたはH100システム用の液冷をAI対応ラックでサポートできますか?
はい。当社のラックは、チップへの液冷用に事前に構成されています。統合されたマニホールドと、冷却液分配ユニット(CDU)用のスペースを備えており、最新のNVIDIA BlackwellおよびHopperアーキテクチャの高熱設計電力(TDP)要件に完全に対応しています。
4. AIトレーニング負荷に関連する大規模な電力サージはどのように処理しますか?
AIワークロードは、非常に変動の大きい電力需要を生み出します。当社のソリューションは、高放電バッテリーまたはフライホイールを備えたインテリジェントPDUおよびUPSシステムを利用して、「ステップ負荷」を迅速に処理し、数千のGPUが同時にフルパワーに達した場合でも、電気的安定性を確保します。
5. これらのモジュールは、迅速な「Day 2」拡張に対応できますか?
もちろんです。当社はモジュール式の「ビルディングブロック」設計を使用しています。少数の高密度AIポッドから始めて、コンピューティングのニーズに合わせてさらに追加できます。冷却と電力の接続は迅速な展開のために標準化されており、従来の構築と比較して「サービス準備完了」までの時間を最大30%短縮します。
6. フルロードのAIサーバーの最大ラック重量容量はどれくらいですか?
当社のAI専用キャビネットは、最大2,200kg(約4,850ポンド)の静的負荷定格をサポートする、高ゲージの強化鋼で構築されています。これにより、内部バスバー、液体マニホールド、マルチノードGPUシステムなど、フルスタックAI構成を安全に収容できます。
7. AI対応性は、施設の持続可能性(PUE)にどのように影響しますか?
AI対応センターは、冷却を熱源に近づけることで効率を向上させます。リアドア熱交換器(RDHx)または直接液冷(DLC)を利用することにより、従来の空冷方式よりも効率的に熱を除去し、ラック密度あたり100kWでも、PUE 1.12以下を目標としています。

液冷ソリューションについてさらにご質問はありますか?

今すぐお問い合わせください