卡内基梅隆大学教授、艾伦人工智能实验室研究员蒂姆·德特默斯(Tim Dettmers)近日从硬件限制、资源消耗与实际应用三个角度提出观点:通用人工智能(AGI)从诞生之初便违背物理规律,本质上是一个无法实现的幻想。他通过详细分析GPU发展瓶颈、信息处理成本及资源投入与收益的关系,论证了这一结论。
德特默斯指出,智能并非抽象概念,而是依赖物理设备实现的计算过程。硬件作为智能的载体,必须遵循物理定律。以信息移动成本为例,全局信息传递至局部以及局部信息整合的效率,会因距离增加呈平方级下降。芯片缓存设计便体现了这一规律:L2、L3缓存容量虽大于L1,但因物理位置更远,访问速度反而更慢。晶体管尺寸缩小虽降低了计算成本,却导致内存成本飙升,现代芯片中计算单元占比已微乎其微,内存占据绝大部分空间。即使是主流AI架构Transformer,其本质也是对硬件信息处理效率的物理优化,且已接近理论极限。
资源投入与收益的关系进一步削弱了AGI的可行性。德特默斯解释,系统每提升1%的性能,所需资源往往呈指数级增长。物理层面,资源聚集受空间与时间限制,效率逐渐降低;理论层面,关联性强的想法会导致收益递减,创新多是对现有方案的微调,难以突破现有框架。物理学的发展便是典型案例:过去个人可取得理论突破,如今大型强子对撞机等耗资数十亿美元的设备,仍未能解开暗能量、暗物质等谜题。AI领域同样面临类似困境,单纯依靠资源堆砌实现通用能力,终将超出实际承受范围。
GPU的发展瓶颈为AGI的幻想泼了冷水。德特默斯提供的数据显示,GPU的性价比在2018年达到峰值,此后16位精度、张量核心、HBM内存等改进均为一次性优化,潜力迅速耗尽。行业寄予厚望的机架级优化,如更高效地调度AI所需的键值缓存,其设计思路简单,本质上只有一种最优方案,虽工程实现需时间,但整体创新有限。以OpenAI为代表的企业虽宣称基础设施领先,但实际差距微小,唯一能拉开距离的机架或数据中心级优化,预计在2026至2027年也将耗尽潜力。这意味着,支撑AI发展的算力增长线已接近终点。
扩大模型规模虽能提升AI性能,但需付出更高代价。德特默斯承认规模法则的作用,但强调过去GPU的指数级进步可抵消规模扩张的资源消耗,投入与收益基本平衡。如今GPU性能停滞,若想获得线性提升,需投入指数级成本,投入与收益的比例严重失衡,物理上难以持续。例如,工厂机器人需应对零件磨损、天气变化等突发情况,需海量数据训练与高成本实验,物理世界数据的收集成本高昂,进一步限制了AGI的可行性。
超级智能的假设同样站不住脚。德特默斯认为,AI自我优化的过程初期或能通过调整参数取得进步,但达到一定水平后,每提升1%的性能,可能需多花10倍的资金与算力。AI无法凭空创造资源,无限变强的设想缺乏物理基础。因此,他断言AGI与超级智能均为幻想,AI的未来应聚焦于物理约束内的渐进式改进,通过经济扩散与实际应用创造价值。











