AI晶片龙头辉达在17至21日举行,创办人黄仁勋19日进行主题演讲,并发布、更新软硬体产品,由于去年DeepSeek以低成本蒸馏其他模型的方式,引发AI市场对资本支出的疑虑,甚至是认为Scaling Law(缩放原则)已经撞墙,不过黄仁勋表示,去年大家都搞错了,预期在2028年资料中心的建置将达到1兆美元规模。

所谓Scaling Law,意思是AI随着模型、数据集大小以及用于训练的计算量增加,会使模型性能提高,因此为了得到更好的效能,前3者都必须同时放大,因此科技巨擘才不断地投入AI伺服器建置。

不过去年DeepSeek推出低成本的模型,但其效能与大型语言模型不相上下,引发对Scaling Law的疑虑,甚至认为没有必要加大对AI伺服器的投资。

因此黄仁勋提到预训练要解决的是资料的问题,后训练则需解决人机互动的问题;并直言,去年大家都搞错了Scaling并没有遇到撞墙,他进一步解释,从GPT开始到现在的AI推理,不再是预测下一个Token,而是产生100倍以上的Token。

如此一来推理的计算量需求、计算速度都必须提高,现在所需要的计算量,推估比需要的多出100倍,而数据的来源就是强化学习,可以产生大量的Token。

黄仁勋针对Hopper的需求高峰以及Blackwell出货的首年相比,表示会看到AI正处于转折,去年全球4大CSP客户购入约130万片Hopper架构的GPU,但今年4大CSP客户已经购入360万片Blackwell架构的GPU。

黄仁勋表示,未来资料中心的建置将达到1兆美元的规模,时间点就落在2028年。

#辉达 #黄仁勋 #Scaling Law #AI #DeepSeek