在近期举办的百度世界大会上,AI产业的价值分配问题成为焦点。百度创始人李彦宏直言,当前AI产业呈现“正金字塔”结构——底层芯片占据绝大部分价值,模型层获取的价值不足芯片层的十分之一,而应用层价值更少一个数量级。他强调,这种结构既不健康也不可持续,理想的产业生态应是“倒金字塔”模式,即模型层价值需达到芯片层的10倍,应用层价值需达到模型层的10倍。
百度的特殊性在于,其业务覆盖模型、应用两端,同时是最早布局AI基础设施层的公司之一。这种全链条布局使其具备推动行业变革的潜在能力。大会上,百度发布了两款新一代芯片——昆仑芯M100与M800。M100针对大规模推理场景优化,预计明年年初上市;M800则聚焦超大规模多模态大模型的训练与推理,性能更强。
百度智能云负责人透露,未来五年昆仑芯将保持“按年迭代”的节奏。尽管芯片参数尚未公开,但百度在AI基础设施层的另一项突破——超节点技术——引发关注。大会同期发布的“天池256”与“天池512”超节点,支持万亿参数模型训练。其中,“天池512”在DeepSeek架构优化下,单卡性能提升95%,单实例推理性能提升8倍,两款产品均将于明年上市。
超节点的研发背景源于模型规模扩大带来的挑战。以MoE架构为例,其单次通信量达GB级,传统服务器跨机互联的带宽和时延难以满足需求。目前,涉足超节点的厂商主要分为两类:一类是掌握NVLink直连和C2C芯片互联技术的企业,另一类是在交换机、网络拓扑等领域有深厚积累的厂商。而百度既不属于前者,也未在通信互联领域有长期投入,其超节点技术的突破显得尤为突出。
超节点作为系统级工程,对芯片底层能力、通信互联、散热、电源管理及架构兼容性要求极高。今年4月,百度曾推出基于P800计算卡的“64卡超节点”,更多是技术验证。此次“天池256”与“天池512”的发布,表明P800的底层能力经受住了考验。尽管其性能可能不及英伟达H800,但能支撑512卡规模的超节点,说明其自研内核具备优秀的标量、矢量通用计算能力,可处理多样化AI负载。
昆仑芯P800集成的XCLL互联技术和“通算融合”架构也得到验证。若非如此,百度大可等待M100系列成熟后再开发512卡超节点。这一技术路径的选择,反映出百度在AI基础设施层的战略思考——通过自研架构提升芯片的通用性和适配性,而非单纯追求算力峰值。
从产业价值分配的视角看,李彦宏的“正金字塔”理论直指行业痛点。摩根士丹利数据显示,2025年生成式AI产业总收入约1530亿美元,而英伟达一家公司的营收就达1305亿美元。考虑到多数AI应用公司仍处于亏损状态,应用层价值比芯片层少两个数量级的说法并不夸张。
不过,价值流向已出现微妙变化。以百度为例,其二季度财报显示,尽管广告业务疲软导致整体营收略有下滑,但AI云业务驱动的非在线营销收入首次突破百亿,同比增长34%。同时,百度正在推动搜索业务的全面AI化。目前,百度搜索70%的首条结果为富媒体内容,包括图片、视频、直播甚至数字人,而非传统的文字链接。
这种激进的AI化改造,不仅有助于百度守住搜索基本盘,还能带动生成广告、数字人广告等新业务增长。更重要的是,搜索的AI化能为大模型提供海量数据,反推其理解和生成能力的优化;而昆仑芯作为底层算力支撑,也能在大规模富媒体内容生成过程中验证和提升芯片的适配性与能效比。这种全链条协同,或许正是打破“正金字塔”结构的关键。










