TrendForce表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI server的高成長率,一般型server出貨量年增率僅有1.9%。而AI Server占整體server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值占整體server高達65%。

從AI server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC 方案,促ASIC server占整體AI server的比重在2024年將提升至26%,而主流搭載GPU的AI Server占比則約71%。

就AI Server搭載的AI晶片供應商分布來看,單看AI server搭載GPU,NVIDIA市占率最高、逼近9成,AMD市占率則僅約8%。但若加計所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率則約64%。

據TrendForce的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商TSMC的CoWoS生產量規模至年底總產能可達550k-600k,成長率逼近8成。另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。

#AIServer #AIserver #TrendForce #NVIDIA #100