華碩表示,這項突破性的合作案,採用128台NVIDIA HGX H100伺服器,搭配1024張GPU,對照配備相同GPU與高速網卡規格的資料中心(NVIDIA H100 SXM5 80GB GPUs與InfiniBand NDR400 connectivity),華碩調校優化整體運算效能提升66%,猛超對手23%,遙遙領先!並在三個月內就佈建完成,不僅彰顯華碩在全球超級電腦領域的優勢地位,更將為AI創新挹注強健動能。
華碩近日於美國SC24大會現場展示搭載AMD及Intel處理器、支援NVIDIA繪圖晶片的全系列伺服器,為新創公司、研究機構、大型企業與政府機關提供靈活、理想的解決方案,徹底釋放大數據潛能,提升業務敏捷性。
其中,ASUS AI POD配備GPU、CPU與交換機,實現無縫高速通信,優化兆級參數大型語言模型(LLM)訓練與即時推理。結合NVIDIAR鎮 Grace Blackwell超級晶片與NVLink技術,並提供液對液及液對氣冷卻選項,大幅提升AI運算效能。
此外,全新ESC 8000A-E13P伺服器完全相容NVIDIA MGX架構,支援高密度GPU部署,最多可配置8張雙插槽卡,每張功率高達600瓦;另搭載PCIe 5.0插槽,強化東西向流量與系統效能。
為迎接生成式AI挑戰,華碩推出多款創新伺服器,包括集成AMD EPYC 9005處理器的ESC A8A-E12U,以及支援Intel Gaudi 3加速器的ESC I8-E11,為各類應用場景提供高效運算支持。
發表意見
中時新聞網對留言系統使用者發布的文字、圖片或檔案保有片面修改或移除的權利。當使用者使用本網站留言服務時,表示已詳細閱讀並完全了解,且同意配合下述規定:
違反上述規定者,中時新聞網有權刪除留言,或者直接封鎖帳號!請使用者在發言前,務必先閱讀留言板規則,謝謝配合。