未来のAIファクトリーを
構築する

SuperXはフルスタックAIインフラストラクチャーを提供します。私たちは、パートナーおよびお客様のためにコスト効率の高いソリューションを提供し、世界クラスのAIインフラストラクチャーの構築を簡素化することを目指しています。

あらゆるAIの野心を支える基盤

コアサーバーからオンデマンドクラウド、エンタープライズプラットフォーム、大規模データセンターソリューションまで、お客様のAIジャーニーにおけるあらゆるレイヤーをサポートします。

サーバー

AIイノベーションの基盤となる構成要素です。研究者やエンタープライズチームの要求に応える、堅牢でスケーラブルなパフォーマンスを実現するように設計されています。

クラウド

高性能なNVIDIA GPUを即座に利用し、柔軟で開発者フレンドリーなクラウドプラットフォームでAI開発ライフサイクルを加速できます。

エンタープライズ

機密データを保護し、モデルに対する制御を維持できるよう、セキュアなプライベートクラウドインフラストラクチャーを用いてAI主権を実現します。

AIファクトリー

ビジョナリーのために構築された統合ソリューション — 液体冷却、HDVC、クラウドを融合し、あなたのAIファクトリーに必要なパフォーマンス、密度、効率を実現します。

ピークパフォーマンスのために設計

AIの未来を支える — 世界最先端のワークロードに特化して設計された高性能サーバー。

 
 
 
B300
B300
SuperX B300は、NVIDIA® HGX™ B300プラットフォームと8基のNVIDIA® Blackwell GPUを搭載した8UデュアルプロセッサAIサーバーです。第5世代NVLink™およびNVSwitch™によりGPU間帯域幅が1.8 TB/sに達し、高速DDR5 MRDIMMメモリや800 Gb/s InfiniBandまたは400 GbEネットワーキングをサポートすることで、大規模AIトレーニング、推論、HPCワークロードに極限のパフォーマンスを提供します。さらに、エンタープライズグレードの電力効率と信頼性も備えています。


NVIDIA GB300
NVIDIA GB300は、36基のNVIDIA Grace™ CPUと72基のNVIDIA Blackwell Ultra GPUを搭載し、高度なAIワークロードに最先端のパフォーマンスを提供します。ECC付きLPDDR5Xメモリ最大18 TB、HBM3eメモリ最大21 TBをサポートし、合計最大40 TBの超高速・低遅延メモリを実現します。NVIDIA NVLink™接続によりGPU間通信帯域幅は130 TB/sに達し、AI推論およびエージェンティックAI、物理AI向けに最適化されています。これにより、大規模モデルや複雑な計算をシームレスに処理できます。
G300
 
 

SuperXの最新ニュース

SuperXのニュースやアップデート、最新の取り組みをご紹介します。

免責事項:本動画に記載されている「SuperX Modular AI Factory」の説明(納品サイクルの見積もり、PUEなどの性能指標、費用対効果を含む)は、現時点の市場情報およびモデルに基づく将来予測的な記述であり、随時更新される可能性があります。本ソリューションの具体的なパラメータ、指標、最終的な納品物は、個別の顧客プロジェクト要件、設置場所の地理的・気候的条件、サプライチェーン状況など、さまざまな要因により変動する可能性があります。

AIへの挑戦を加速する準備はできていますか?

当社の専門家が、最適なソリューションの構築をお手伝いします。

AIソリューションを入手する