在近日举办的一场行业交流活动中,范式智能创始人兼CEO戴文渊就国产算力生态建设发表了深度演讲。他指出,当前中国AI产业面临一个关键矛盾:尽管国内AI应用开发活跃,但超过99%的工作仍高度依赖英伟达技术体系,这种局面既制约了本土创新生态的发展,也暴露出国产算力在生态建设上的滞后性。
戴文渊通过具体数据揭示了技术差距:英伟达CUDA生态拥有约1.8万个算子,而国产GPU平均仅数百个,核心算子数量相差近20倍。这种差距直接导致应用生态的断层——就像智能手机市场,若华为应用商店仅有50个应用,而苹果App Store拥有200万个,用户选择倾向不言而喻。他特别强调,当前头部企业竞相建设万卡集群的现象,掩盖了绝大多数商业开发者对"单卡多模型"的真实需求。实际调研显示,许多企业连单张GPU的1%算力都未能充分利用,这种资源错配严重制约了行业效率。
针对国产算力发展路径,戴文渊提出"生态优先"的战略。他宣布范式智能已推出信创魔盒Model Hub XC平台,致力于打造全球最大的国产算力模型社区。该平台自去年9月上线以来,模型数量已突破1万个,上周单周新增适配2500个模型,呈现出指数级增长态势。按照当前发展速度,预计今年模型数量将突破10万,明年有望与英伟达生态形成数量级对标。"当华为手机应用数量达到20万时,用户体验已与苹果形成可接受差异",他以此类比强调生态丰富度的重要性。
在技术架构层面,范式智能推出的Honey社区VGPU技术已实现全球最大异构计算集群的部署。该技术突破性支持英伟达与国产GPU的混合调度,通过虚拟化技术将单卡算力分配给多个模型使用,有效解决了中小企业GPU利用率低下的问题。基于这项技术打造的Fancy Cloud云服务平台,已集成超过1万个国产模型,并计划年内将模型库扩展至10万量级。
对于行业关注的性价比问题,戴文渊特别提到与曦望科技的战略合作。随着曦望启望S3芯片的发布,双方将共同推进"百万token一分钱"计划,通过软硬件协同优化降低国产算力使用成本。"我们不仅要解决安全可控问题,更要让中国算力成为全球最具性价比的选择",他透露,Fancy Cloud平台已实现垂直行业模型的全领域覆盖,结合曦望的芯片优势,有望在金融、医疗、制造等20多个行业形成差异化竞争力。
这场演讲揭示出国产算力发展的新路径:通过构建开放生态弥补硬件差距,用模型丰富度替代单纯性能比拼,最终实现"应用反哺硬件"的良性循环。随着更多企业加入信创生态建设,中国AI产业或许正在书写新的发展范式。









