良い値段  オンライン

商品の詳細

Created with Pixso. ホーム Created with Pixso. 製品 Created with Pixso.
AI対応データセンター
Created with Pixso. コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW

コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW

ブランド名: Soeteck
モデル番号: SYICDC40
MOQ: 1
価格: To Be Negotiated
配達時間: 5-10週
支払条件: D/A
詳細情報
起源の場所:
中国
証明:
CE, ISO, UL
配置時間:
5-10週
棚の量:
4/9/12個
単一の棚容量:
42u
最高単一の棚。容量:
50/60/100kW
電力供給器:
請求あり次第
冷却タイプ:
液冷/空冷/水冷/冷水
ラックの寸法 (幅*奥行き*高さ):
600*1100*2000mm
アプリケーション:
AI トレーニング、エッジ コンピューティング、リモート サイト、災害復旧
監視システム:
はい
ドアセキュリティシステム:
はい
EPO:
はい
ビデオ モニタリング システム:
はい
パッケージの詳細:
20/40フィートのハイキューブコンテナ
供給の能力:
10000/月
ハイライト:

行コンテナデータセンター

,

42Uコンテナデータセンター

,

50kWのハイパースケールデータセンター

製品の説明

インロー型ハイパースケールコンテナデータセンター 42U 50kW


NVIDIA HGXやDGXポッドのような大規模AIクラスターの展開には、高密度チップに対応できる十分な冷却能力と、ハイパースケール展開で管理しやすい簡素さを両立した冷却が求められます。ハイパースケールインフラストラクチャ全体で数十台の高性能GPUを運用する場合、分散冷却ループは、煩雑な配管、追跡が難しいメンテナンス、ラック全体での温度制御の不整合など、運用上の問題を引き起こします。特に、堅牢な50kWの放熱と42Uラックの互換性が必要なシステムでは、その問題が顕著になります。

ハイパースケールAI対応環境向けに特別に設計された インロー型ハイパースケールコンテナデータセンター(42U、50kW) は、集中型のインロー型コールドプレート冷却アーキテクチャでこれを解決します。すべてがコンパクトで輸送可能なコンテナに収められています。ハイパースケール展開の施設管理を合理化し、42U高密度AIラックにピンポイントの温度制御を提供し、展開を遅らせ、ダウンタイムのリスクを高める分散冷却コンポーネントの複雑さを排除します。50kWの総冷却能力により、極端な熱負荷に対応します。

その中核には、AIチッププロセッサに直接冷媒を送るインロー型コールドプレート液冷(Direct-to-Chip)があり、最も重要なコンポーネントから効率的に熱を奪い、50kWの冷却需要をサポートします。統合されたエアハンドラーが残留熱を処理し、42Uラック向けに最適化されたシームレスでターンキーのハイパースケールソリューションを実現し、標準化されたAIトレーニングワークロードをサポートする準備ができています。コンテナ化された設計により、輸送、展開、拡張が容易になり、冷却の信頼性、42U互換性、または50kWの熱性能を損なうことなく、ハイパースケールAIインフラストラクチャを迅速に構築するチームに最適です。


製品ファミリー

モデル 冷却アーキテクチャ ラック/タンク数 最大電力密度 総容量 コンテナタイプ 寸法(長さ*幅*高さ)
20フィート浸漬 単相浸漬
(統合FDU)
4つのタンク 100 kW / タンク 400 kW 20フィートハイキューブ 6058 x 2438 x 2896 mm
40フィート浸漬 単相浸漬
(統合FDU)
12個のタンク 100 kW / タンク 1.2 MW 40フィートハイキューブ 12192 x 2438 x 2896 mm
40フィートコールドプレート(インロー) インローCDU
(液体対液体/エアアシスト)
12ラック
(CDU用スペース)
60 kW / ラック 720 kW 40フィートハイキューブ 12192 x 2438 x 2896 mm
40フィートコールドプレート(ラック) ラックマウントCDU
(分散マニホールド)
14ラック
(スペース最大化)
50 kW / ラック 700 kW 40フィートハイキューブ 12192 x 2438 x 2896 mm
20フィートコールドプレート(ラック) ラックマウントCDU
(分散マニホールド)
5ラック 50 kW / ラック 250 kW 20フィートハイキューブ 6058 x 2438 x 2896 mm

製品の特長

コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 0

50kW高密度ラック向け高度コールドプレート冷却

ハイパースケールAIワークロード向けに設計された当社のDirect-to-Chipコールドプレート技術は、42Uラックあたり50kWを効率的に管理します。このシステムは、精密な流量制御とリークセーフ冗長性を備えた二次ループを備えており、高性能GPUとアクセラレータを最適な温度に保ちます。熱を直接発生源で除去することにより、熱的ボトルネックを排除し、コンテナ化されたインフラストラクチャの計算密度を最大化します。


インロー型ハイパースケールコンテナデータセンター

ハイパースケールAIワークロード向けに設計された当社のDirect-to-Chipコールドプレート技術は、42Uラックあたり50kWを効率的に管理します。このシステムは、精密な流量制御とリークセーフ冗長性を備えた二次ループを備えており、高性能GPUとアクセラレータを最適な温度に保ちます。熱を直接発生源で除去することにより、熱的ボトルネックを排除し、コンテナ化されたインフラストラクチャの計算密度を最大化します。

コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 1

AI対応データセンターソリューションのフルシリーズ


高密度データセンター展開の主要な冷却需要に焦点を当て、当社のプレミアム製品の全範囲は、高度な技術的利点を活用して、継続的で効率的かつ安定した運用を確実に保護します。

キャビネットあたり5~30kW

インロー型ハイパースケールコンテナデータセンター

統合42U 50kW液冷ソリューション、モジュール式コンテナ設計、PUE ≤ 1.15、大規模AIクラスターおよび高性能コンピューティング向け迅速なグローバル展開。

総電力10~80kW

20フィートコンテナDC

プレハブオールインワン設計、防振・防塵、プラグアンドプレイ、エッジコンピューティングおよび一時的なコンピューティング需要シナリオに最適。

キャビネットあたり30~100kW

40フィートコールドプレートコンテナDC

ハイブリッド空冷・液冷、GPU/CPUからの直接放熱、AI対応設計、低エネルギー消費による高電力密度。

キャビネットあたり50~200kW

40フィート浸漬コンテナDC

誘電性流体による浸漬冷却、空冷よりも100倍高い放熱効率、PUE ≤ 1.1、超高密度AIクラスターに最適。

アプリケーション


高ワット数のコンピューティング需要に対応する優れた熱管理により、次世代インフラストラクチャを強化。

コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 6
AIトレーニング&HPCクラスター
コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 7
高密度データセンター
コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 8
モジュール式&コンテナソリューション
コールドプレート イン ライン ハイパースケール コンテナ データセンター 42U 50kW 9
ブロックチェーン&暗号通貨マイニング

FAQ


1. データセンターを「AI対応」と定義するものは何ですか?
AI対応データセンターは、極端な電力密度と熱管理のために設計されています。重いGPUクラスター用の補強された床荷重、ラックへの高電圧配電(415Vまたは480Vなど)、およびキャビネットあたり40kWから100kW+をサポートできる柔軟な冷却アーキテクチャを備えています。
2. インフラストラクチャは、高性能ネットワーキング(RDMA)をどのようにサポートしていますか?
当社のAI対応モジュールは、InfiniBandおよびRoCEネットワークに必要な高密度ファイバー数を処理するために、特殊なオーバーヘッドケーブル管理システムで設計されています。遅延を最小限に抑え、400Gおよび800G光相互接続に必要な厳格な曲げ半径を維持するために、最適化されたケーブルパス長を確保しています。
3. NVIDIA BlackwellまたはH100システム用の液冷をAI対応ラックでサポートできますか?
はい。当社のラックは、チップ冷却への液冷用に事前に構成されています。Coolant Distribution Units(CDU)用の統合マニホールドとスペースを備えており、最新のNVIDIA BlackwellおよびHopperアーキテクチャの高い熱設計電力(TDP)要件と完全に互換性があります。
4. AIトレーニング負荷に関連する大規模な電力サージはどのように処理しますか?
AIワークロードは、非常に変動の大きい電力需要を生み出します。当社のソリューションは、高速「ステップ負荷」を処理できる高放電バッテリーまたはフライホイールを備えたインテリジェントPDUおよびUPSシステムを利用し、数千のGPUが同時にフルパワーに達した場合でも、電気的安定性を確保します。
5. これらのモジュールは、迅速な「Day 2」拡張に対応できますか?
もちろんです。モジュール式の「ビルディングブロック」設計を使用しています。少数の高密度AIポッドから始めて、コンピューティングのニーズに合わせてさらに追加できます。冷却と電力の接続は迅速な展開のために標準化されており、従来のビルドと比較して「Ready-for-Service」時間を最大30%短縮します。
6. フルロードのAIサーバーの最大ラック重量容量はどれくらいですか?
当社のAI専用キャビネットは、最大2,200kg(約4,850ポンド)の静的負荷定格をサポートする、高ゲージの補強鋼で構築されています。これには、内部バスバー、液体マニホールド、マルチノードGPUシステムなど、フルスタックAI構成が安全に収容されます。
7. AI対応性は、施設の持続可能性(PUE)にどのように影響しますか?
AI対応センターは、冷却を熱源に近づけることで効率を向上させます。Rear Door Heat Exchangers(RDHx)またはDirect Liquid Cooling(DLC)を利用することにより、従来の空冷方式よりも効率的に熱を除去し、ラック密度あたり100kWでも、PUE 1.12以下を目標としています。

液冷ソリューションについてさらにご質問はありますか?

今すぐお問い合わせください