ITBear旗下自媒体矩阵:

小鹏G7搭2200+TOPS算力,大模型本地部署能否引领智驾新潮流?

   时间:2025-06-13 17:06:50 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道

小鹏汽车近日在其新品发布会上宣布,将在其售价20万左右的纯电动车型上搭载高达2200+TOPS的算力,这一创举在业内引起了广泛关注与热议。不少人对小鹏的技术实力表示赞叹,认为这标志着智能驾驶技术的新里程碑。然而,也有质疑声认为,通过3颗自研芯片堆砌出的高算力是否过于“奢侈”,并质疑这种算力堆叠的实际意义。

针对这些质疑,小鹏在发布会上已给出了明确回应:核心目标在于实现大模型的本地部署。这一战略包含两个关键点:一是大模型,二是本地部署。在AI时代,更大的模型往往意味着更强的能力,遵循Scaling Law定律,模型参数量越大,效果往往越好。

那么,什么样的模型才能被称为“大模型”呢?目前,受限于车规级芯片的算力,车端部署的模型通常经过轻量化处理,实际部署的模型参数量常在50亿以下,如理想的VLA司机大模型仅为40亿参数,尚称不上“大”。相比之下,小鹏的自动驾驶云端基座模型已达到720亿参数,这才是真正意义上的大模型,但受限于算力,无法在车端实现本地部署。

为了解决这一矛盾,小鹏选择将大模型部署到车端,于是我们看到了3颗图灵AI芯片组成的2200TOPS算力系统,最高可支持300亿参数的模型。300亿参数意味着什么?以小鹏的基座模型为例,从720亿参数缩减到300亿,可能只需进行结构化剪枝和MoE转换,但从720亿缩减到70亿,则可能需要重构,性能差距显著。

或许有人疑问,在5G时代,为何不使用云端大模型以降低车端算力需求?这涉及到了本地部署的必要性。对于LLM等应用,云端部署确实具有优势,可以并行处理多个需求,降低成本。但行车模型对时延和帧数要求极高,云端部署难以满足。何小鹏在发布会上提到,VLA模型至少需要达到每秒20帧才能保证足够的行车能力,这意味着从感知到结果回传的总耗时需在50毫秒内完成,云端部署难以实现。

即便解决了延迟通信问题,也难以完全避免网络波动或通讯失效的风险,这可能导致车端系统降级甚至瘫痪,影响用户体验和行车安全。另一个关键点是全球化,本地部署无需联网运行,避免了数据传输的合规问题,使得模型可以在全球范围内快速部署。

综合来看,大模型的本地部署被认为是车端智能驾驶的最优路线。小鹏虽然尚未激进地将基座模型直接搬上车,但已选择将VLA+VLM模型部署到G7车型上。具体来说,G7使用2颗图灵芯片(共1400+TOPS)运行VLA模型,另1颗图灵芯片(700+TOPS)运行VLM模型,芯片间通过PCI-E通信。

这种分工基于小鹏对人脑功能的理解,认为车或机器人也应以能力对算力进行区分。VLA负责运动和决策,需要更大的算力以保证每秒20帧的性能;而VLM负责整车感知,如接收指令、识别路牌等,对算力需求相对较低。即便如此,本地部署的VLA+VLM也已展现出强大的想象空间,如小鹏在发布会上提到的“智驾能力比Max车型高10倍以上”等。

这一切的基础,正是小鹏汽车所强调的大算力。随着小鹏G7的全球首秀临近,业界对这款车型充满了期待。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version