TrendForce预估,到2025年,全球若以等同ChatGPT的超大型AIGC产品5款、Midjourney的中型AIGC产品有25款,以及80款小型AIGC产品估算,上述所需的运算资源至少为14.56万~23.37万颗NVIDIA A100 GPU,再加上新兴应用如超级电脑、8K影音串流、AR/VR等,也将同步提高云端运算系统的负载,显示出高速运算需求高涨。

由于HBM拥有比DDR SDRAM更高的频宽和较低的耗能,无疑是建构高速运算平台的最佳解决方案,从2014与2020年分别发布的DDR4 SDRAM及DDR5 SDRAM便可究其原因,两者频宽仅相差两倍,且不论是DDR5或未来DDR6,在追求更高传输效能的同时,耗电量将同步攀升,势必拖累运算系统的效能表现。若进一步以HBM3与DDR5为例,前者的频宽是后者的15倍,并且可以透过增加堆迭的颗粒数量来提升总频宽。此外,HBM可以取代一部分的GDDR SDRAM或DDR SDRAM,从而更有效地控制耗能。

TrendForce表示,目前主要由搭载NVIDIA A100、H100、AMD MI300,以及大型CSP业者如Google、AWS等自主研发ASIC的AI伺服器成长需求较为强劲,2023年AI伺服器出货量(包含搭载GPU、FPGA、ASIC等)出货量预估近120万台,年增率近38%,AI晶片出货量同步看涨,可望成长突破五成。

#HBM #AI #频宽 #DDRSDRAM #TrendForce