TrendForce表示,今年大型CSPs预算持续聚焦于採购AI Server,进而排挤一般型server成长力道,相较于AI server的高成长率,一般型server出货量年增率仅有1.9%。而AI Server占整体server出货的比重预估将达12.2%,较2023年提升约3.4个百分点。若估算产值,AI Server的营收成长贡献程度较一般型server明显,预估2024年AI Server产值将达逾1,870亿美元,成长率达69%,产值占整体server高达65%。
从AI server搭配AI晶片类型来看,来自北美CSPs业者(如AWS、Meta等)持续扩大自研ASIC,以及中国本土业者如Ali、Baidu、Huawei等积极扩大自主ASIC 方案,促ASIC server占整体AI server的比重在2024年将提升至26%,而主流搭载GPU的AI Server占比则约71%。
就AI Server搭载的AI晶片供应商分布来看,单看AI server搭载GPU,NVIDIA市占率最高、逼近9成,AMD市占率则仅约8%。但若加计所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率则约64%。
据TrendForce的调查,展望2025年市场对于高阶AI Server需求仍强,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)将取代Hopper平台成为市场主流,此亦将带动CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸将较H100翻倍,会消耗更多的CoWoS用量,预估2025年主要供应商TSMC的CoWoS生产量规模至年底总产能可达550k-600k,成长率逼近8成。另以HBM用量来看,2024年主流H100搭载80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,将搭载达288GB的HBM3e,单位用量成长逾3倍,随AI server市场需求持续强劲下,有望带动2025年HBM整体供给量翻倍成长。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。