其一,「HBM3進階到HBM3e」,預期NVIDIA將於今年下半年開始擴大出貨搭載HBM3e的H200,取代H100成為主流,隨後GB200及B100等亦將採HBM3e。AMD則規劃年底前推出MI350新品,期間可能嘗試先推MI32x等過度型產品,與H200相抗衡,均採HBM3e。
其二,「HBM搭載容量持續擴增」,為了提升AI伺服器整體運算效能及系統頻寬,將由目前市場主要採用的NVIDIA H100(80GB),至2024年底後將提升往192~288GB容量發展;AMD亦從原MI300A僅搭載128GB,GPU新品搭載HBM容量亦將達288GB。
其三,「搭載HBM3e的GPU產品線,將從8hi往12hi發展」,NVIDIA的B100、GB200主要搭載8hi HBM3e,達192GB,2025年則將推出B200,搭載12hi HBM3e,達288GB;AMD將於今年底推出的MI350或2025年推出的MI375系列,預計均會搭載12hi HBM3e,達288GB。
發表意見
中時新聞網對留言系統使用者發布的文字、圖片或檔案保有片面修改或移除的權利。當使用者使用本網站留言服務時,表示已詳細閱讀並完全了解,且同意配合下述規定:
違反上述規定者,中時新聞網有權刪除留言,或者直接封鎖帳號!請使用者在發言前,務必先閱讀留言板規則,謝謝配合。