智能跃迁变慢了!Scaling Law遇阻,华为悬赏能否重启AI黄金时代?

发布时间:2026-01-04 11:44  浏览量:2

哈喽,大家好,今天小墨这篇评论,主要来分析AI大佬分歧背后,Scaling Law时代是否已走到尽头?

2026年的AI圈,正陷入一场前所未有的集体焦虑。从ChatGPT横空出世到DeepSeek惊艳亮相,再到Gemini 3、GPT-5.2的迭代,支撑这些顶级模型的Scaling Law,这个曾经的行业灯塔,如今却被质疑是否已经撞墙。

算力还在持续暴涨,智能的跃迁却明显放缓,大佬们的态度分歧,更让这场争议雪上加霜。

Scaling Law是否已经失效?这个问题让AI圈的顶级大佬们罕见地站在了对立面。Ilya Sutskever公开表态,单纯堆砌预训练算力的时代进入平台期,智能增长需要转向新的研究时代。

Yann LeCun延续了毒舌风格,直言当前大语言模型无论怎么Scaling都无法触达真正的AGI。Sam Altman则含蓄承认,仅靠更多GPU已无法换回同比例的智能跃迁。三大巨头的态度,把Scaling Law的争议推向了顶点,也让全行业开始重新审视过去十年的技术路径。

新加坡国立大学校长青年教授尤洋在《智能增长的瓶颈》一文中给出了独到视角,他认为过去10年AI大模型的技术本质,是把电力能源通过计算过程转化为可复用的智能。而当前的核心问题,正是这种转化机制正在失效。

尤洋教授的观点戳中了行业痛点,当前遇到的并非算力不够,而是

我们现在的范式无法充分利用持续增长的算力

。简单说就是模型对算力的消化能力在下降,无法高效将算力转化为智能。

这个瓶颈在行业实践中已有明显体现。训练一个百亿参数大模型需处理PB级数据,传统“存算分离”模式导致的数据搬运延迟,竟占训练时间的30%以上。这意味着大量算力被浪费在数据搬运上,无法真正作用于智能提升。

更关键的是,行业常把效率提升和智能上限提升混为一谈。比如剪枝、蒸馏、低精度等技术,能让模型用更少算力达到相同效果,但这只是落地层面的优化,无法提升智能的终极上限。真正决定未来的,是在相同算力约束下能否训练出更强大的模型。

面对瓶颈,行业已开始主动破局。2025年12月26日,华为正式启动第六届奥林帕斯奖全球征集,以300万元重金悬赏全球科研工作者,聚焦AI时代数据存储的五大核心难题。

此次悬赏直指算力转化的核心梗阻,提出“以存补算、以存换算”新范式,通过存算融合、高效索引等技术减少数据搬运延迟。同时聚焦Agentic AI原生的数据底座建设,让存储系统从单纯的“数据仓库”升级为“存管用一体化平台”,从基础设施层面提升算力利用效率。

技术探索层面也有新进展。中国科学技术大学深圳校区的张哲祥、王烨团队,联合多家机构共同完成的研究,提出让专家系统像乐队一样分工协作的新思路,为提升算力转化效率提供了新方向。

这些探索都契合了尤洋教授提出的未来方向,即不是“省算力”,而是“更有效地消耗更多算力”。

Scaling Law的争议并非终点,而是AI行业迈向更高质量发展的起点。从基础设施升级到技术路径探索,行业正在主动破局。

只要找到更高效的算力转化方式,智能增长的空间依然广阔,AI的下一个黄金时代仍值得期待。