データセンターに新基準 シンガポール発SuperX、NVIDIA GB300搭載AIスパコン発表 高密度液冷設計で1ラック1.8エクサフロップス

    サービス
    2025年10月17日 12:07

    SuperX AI Technology Limited NASDAQ: SUPX )は、ラックマウント型AIスーパーコンピューティング・プラットフォーム「SuperX GB300 NVL72システム」を正式に発表しました。本システムは、NVIDIA GB300 Grace Blackwell Ultraスーパーチップの卓越した性能を核とし、兆パラメータを超える大規模モデルのトレーニングおよび推論における物理的・計算能力の限界を打破するために設計されています。液体冷却設計を採用した本システムは、性能密度とエネルギー効率において画期的な進歩を遂げ、現代のデータセンターインフラに新たな基準を打ち立てます。

    SuperX GB300 NVL72 システム
    SuperX GB300 NVL72 システム

    SuperX GB300NVL72 をはじめとする新世代のラックマウント型AIシステムの登場は、業界の重要な転換点を示しています。単一の液体冷却ラックで最大1.8エクサフロップスのAI性能を提供することで、本システムが達成する驚異的な計算密度は、従来の空冷設計や標準的な交流(AC)配電ソリューションではサポートが困難です。これほど巨大な計算能力と消費電力がより小さな物理的空間に高度に集中することは、既存のインフラではこれらの次世代ワークロードを十分にサポートできないことを意味します。

    この技術変革により、800ボルト直流(800VDC)をはじめとする先進的な電源ソリューションは、単なるエネルギー効率の利点にとどまらず、システム全体を支える不可欠な基盤となりました。ラックに大量の電力を直接かつ効率的に供給する能力は、システムの安定性、安全性、および運用の実現可能性を確保するための生命線です。したがって、SuperX GB300 NVL72 システムは、独立したハードウェア製品ではなく、当社のフルスタック「SuperXモジュラーAIファクトリー」ソリューションにおける中核エンジンとして位置付けられており、展開に必須となる液体冷却および800VDCインフラと共に、不可分の統合ソリューションを構成します。

    Grace Blackwell Ultra スーパーチップの卓越性

    SuperX GB300システムは、72基のNVIDIA Blackwell Ultra GPUと36基のNVIDIA Grace CPUを2:1の比率で統合した、GB300スーパーチップを基盤に構築されています。この緊密な統合は、900GB/sのチップ間インターコネクトリンクを通じて極めて広大な帯域幅を提供し、Grace CPUの広帯域メモリとBlackwell Ultra GPUをシームレスに接続します。2,304GBのHBM3EメモリとGrace CPUの広大なLPDDR5Xメモリを組み合わせることで、統一されたメモリプールを確保し、I/Oのボトルネックを発生させることなく最大規模のモデルとキー・バリューキャッシュの処理を可能にします。同時に、Grace CPUの省電力な処理能力とBlackwell Ultra GPUの計算集約型性能が相互に補完し合い、最適な効率と卓越したワット当たり性能を実現します。

    ラック単位で実現するエクサスケールAIコンピューティング

    GB300システムは、大規模なスケールアウトを前提に設計されています。単一のSuperX GB300システムはNVL72ラック構成に拡張可能で、72基のB300 GPUを単一の巨大なGPUとして接続します。本システムは画期的な性能を達成し、単一ラック内で最大1.8エクサフロップス(FP4 AI)の計算能力を実現、大規模AIトレーニングおよび推論の業界標準を再定義します。800Gb/sのInfiniBand XDR接続により、最も要求の厳しいAIクラスタにおいても超低遅延を保証し、極めて高いスケーラビリティをもたらします。このような高い性能レベルを維持するため、システムは先進的な液体冷却設計を採用し、卓越した密度と24時間365日の連続稼働を実現すると同時に、エネルギー効率を最大化しています。

    主な技術仕様:

    コンポーネント(ラックあたり) 仕様
    CPU 36基のNVIDIA Grace CPU(合計144個のArm Neoverse V2コア)
    GPU 72基のNVIDIA Blackwell Ultra GPU
    合計 HBM3E メモリ 約165TB(GPU高帯域幅メモリ)
    合計 LPDDR5X メモリ 約17TB(Grace CPUメモリ)
    最大 AI 性能 約1.8エクサフロップス (FP4 AI)
    ネットワーク NVIDIA NVLinkコネクタ x4 (1.8TB/s)、 NVIDIA ConnectX 8 OSFPポート x4 (800Gb/s)、
    NVIDIA BlueField 3 DPU x1 (400Gb/s)
    寸法 48U NVIDIA MGXラック、 2296mm(H) x 600mm(W) x 1200mm(D)

    市場における位置付け

    SuperX GB300 NVL72 システムは、未来のAI基盤を構築する下記のような組織にとって理想的なインフラです:

    • ハイパースケール ソブリン AI 国家レベルのAIインフラ、パブリッククラウドサービス、および最も複雑なマルチモーダル・大規模言語モデルのトレーニングと運用にエクサスケール級の計算能力を必要とする大企業のAIファクトリーの構築。
    • エクサスケール 科学技術計算: 物理学、材料科学、気候モデリングなどの重要課題に取り組むために、効率的なラック級コンピューティングを必要とする政府機関や研究機関。
    • 産業用デジタルツイン: 大規模かつ高忠実度のデジタルツインを構築するために、Grace CPUとBlackwell Ultra GPUの統合処理能力を必要とする自動車、製造、エネルギー業界。

    お問い合わせ

    製品に関するご質問、販売、詳細仕様については、弊社製品販売チームまでお問い合わせください:Sales@superx.sg

    SuperX AI Technology Limited ( NASDAQ: SUPX )について

    SuperX AI Technology Limitedは、AIインフラソリューションのプロバイダーです。AIデータセンター向けに、独自のハードウェア、先進的なソフトウェア、エンドツーエンドのサービスを含む包括的な製品ポートフォリオを提供しています。当社のサービスは、先進的なソリューションの設計・計画から、コスト効率の高いインフラ製品の統合、一貫した運用・保守までを網羅しています。主力製品には、高性能AIサーバー、800ボルト直流(800VDC)ソリューション、高密度液体冷却ソリューション、AIクラウド、AIエージェントが含まれます。シンガポールに本社を置き、大企業、研究機関、クラウドおよびエッジコンピューティング事業者など、世界中の法人顧客にサービスを提供しています。詳細については、https://www.superx.sg/をご覧ください。

    セーフハーバー条項(将来の見通しに関する記述)

    本プレスリリースには、将来の見通しに関する記述が含まれています。これらの記述は、現時点で入手可能な情報に基づく当社の期待や予測を反映したものであり、歴史的事実ではありません。これらの記述は、「可能性がある」「はずである」「期待する」「見込む」「検討する」「見積もる」「信じる」「計画する」「予測する」「潜在的な」または「希望する」といった言葉やその否定形の使用などによって識別することができます。これらの将来の見通しに関する記述を評価する際には、当社の事業方針を変更する能力、新しい技術や市場の変化に対応する能力、および当社の事業における競争環境など、多くの要因を複合的にご検討いただく必要があります。これらの要因により、当社の実際の結果が将来の見通しに関する記述で示された内容と大きく異なる可能性があります。将来の見通しに関する記述はあくまで予測であり、過度に依存しないようご注意ください。本プレスリリースで述べられている将来の事象は発生しない可能性があり、実際の結果は当社に関するリスク、不確実性、仮定の影響を受け、大きく異なる場合があります。当社は、新たな情報、将来の事象、その他の結果にかかわらず、将来の見通しに関する記述を公に更新または修正する義務を負うものではありません。

    連絡先

    製品に関するお問い合わせ: sales@superx.sg
    投資家情報: ir@superx.sg

    すべての画像

    データセンターに新基準 シンガポール発SuperX、NVIDIA GB300搭載AIスパコン発表 高密度液冷設計で1ラック1.8エクサフロップス | SuperX AI Technology Ltd