研调机构TrendForce 17日发布「AI Server(伺服器)产业分析报告」指出,今年大型的云端服务商以及品牌客户,对于高阶AI伺服器的高度需求未歇,加上台积电CoWoS先进封装及HBM持续扩产下,全年出货量上修至167万台,年增率达41.5%。
TrendForce表示,AI伺服器相关产能扩张后,今年第2季后短缺状况大幅缓解,连带使得NVIDIA主力方案H100的交货前置时间从先前动辄40-50周下降至不到16周,因此预估AI伺服器在第2季出货量将季增近20%,全年出货量上修至167万台,年增率达41.5%。
同时,今年大型云端服务商的预算持续聚焦于採购AI 伺服器,排挤一般伺服器的成长力道,相较于前者的高成长率,后者出货量年增率仅有1.9%;而AI 伺服器占整体伺服器出货的比重预估将达12.2%,较2023年提升约3.4个百分点。若估算产值,AI 伺服器的营收成长贡献程度较一般型伺服器明显,预估2024年AI Server产值将达逾1870亿美元,成长率达69%,产值占整体伺服器市场达65%。
TrendForce指出,展望2025年市场对于高阶AI Server需求仍强,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)将取代Hopper平台成为市场主流,此亦将带动CoWoS及HBM等需求。
以NVIDIA的B100而言,其晶片尺寸将较H100翻倍,会消耗更多的CoWoS用量,预估2025年主要供应商TSMC的CoWoS生产量规模至年底总产能可达550k-600k,成长率逼近8成。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。