近年来,人工智能领域的发展引发了广泛关注,尤其是大模型技术的快速迭代,让人们对其未来充满期待。然而,随着ChatGPT、DeepSeek以及Gemini 3等模型的相继问世,一个关键问题逐渐浮出水面:支撑这些技术进步的Scaling Law是否正在失去效力?这一疑问不仅困扰着研究人员,也引发了行业内的激烈讨论。
Scaling Law的核心在于通过增加预训练算力来提升模型智能,但近期多位权威专家对此表达了不同看法。有人认为,单纯依赖算力堆砌的时代已接近尾声,智能增长需要转向新的研究方向。例如,某知名学者公开指出,当前大语言模型在算力投入与智能产出之间的比例正在失衡,即使继续增加GPU数量,也难以实现同等幅度的智能跃迁。
这种观点得到了部分同行的呼应。另一位专家直言,现有模型无论怎样扩展,都无法触及真正的人工通用智能(AGI)。他强调,AGI的实现需要突破当前技术框架,而非简单依赖算力规模的扩大。甚至有企业领袖在公开场合委婉承认,仅靠增加硬件资源已无法支撑智能的持续突破。
行业面临的挑战不仅限于理论层面。数据枯竭和算力报酬递减已成为普遍问题,尽管全球算力总量仍在增长,但模型智能的提升速度却明显放缓。这一现象促使研究者开始反思:算力转化为智能的机制是否正在失效?
针对这一问题,某学者从基础设施与计算范式的底层逻辑出发,提出了独到见解。他认为,过去十年AI大模型的本质是通过计算过程将电力能源转化为可复用的智能,而这一转化效率的提升才是关键。他进一步指出,当前技术范式对算力的“消化能力”正在下降,模型、优化算法等环节无法充分利用持续增长的算力资源。
然而,这些成功因素如今正面临挑战。该学者重新定义了“瓶颈”的内涵,指出效率提升与智能上限提升是两个不同维度的问题。前者关注用更少资源达到相同效果,后者则决定模型在固定算力约束下的能力上限。他认为,当前的核心问题并非算力不足,而是现有范式无法充分释放算力潜力。
为突破这一困境,他提出了多个研究方向:探索更高数值精度的计算能力,尽管当前从FP16到FP64的升级尚未带来显著智能提升,但这一领域仍存在未被充分挖掘的潜力;开发更高阶的优化器,以提供更智能的参数更新路径;设计更具扩展性的模型架构或损失函数,以极限算力为标准训练更强模型;以及通过更充分的训练和超参数搜索,优化数据与参数的匹配关系。
值得注意的是,该学者明确区分了技术落地的不同层面。他指出,推理优化、低精度训练等技术虽对工程部署至关重要,但与智能上限的提升属于不同技术曲线。真正的突破仍需聚焦于如何将算力更高效地转化为智能。











