AI晶片龙头辉达在17至21日举行,创办人黄仁勋19日进行主题演讲,并发布、更新软硬体产品,由于去年DeepSeek以低成本蒸馏其他模型的方式,引发AI市场对资本支出的疑虑,甚至是认为Scaling Law(缩放原则)已经撞墙,不过黄仁勋表示,去年大家都搞错了,预期在2028年资料中心的建置将达到1兆美元规模。
所谓Scaling Law,意思是AI随着模型、数据集大小以及用于训练的计算量增加,会使模型性能提高,因此为了得到更好的效能,前3者都必须同时放大,因此科技巨擘才不断地投入AI伺服器建置。
不过去年DeepSeek推出低成本的模型,但其效能与大型语言模型不相上下,引发对Scaling Law的疑虑,甚至认为没有必要加大对AI伺服器的投资。
因此黄仁勋提到预训练要解决的是资料的问题,后训练则需解决人机互动的问题;并直言,去年大家都搞错了Scaling并没有遇到撞墙,他进一步解释,从GPT开始到现在的AI推理,不再是预测下一个Token,而是产生100倍以上的Token。
如此一来推理的计算量需求、计算速度都必须提高,现在所需要的计算量,推估比需要的多出100倍,而数据的来源就是强化学习,可以产生大量的Token。
黄仁勋针对Hopper的需求高峰以及Blackwell出货的首年相比,表示会看到AI正处于转折,去年全球4大CSP客户购入约130万片Hopper架构的GPU,但今年4大CSP客户已经购入360万片Blackwell架构的GPU。
黄仁勋表示,未来资料中心的建置将达到1兆美元的规模,时间点就落在2028年。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。