国内AI芯片领域迎来重要突破,一家专注于推理GPU研发的科技企业曦望近日宣布完成近30亿元战略融资。本轮融资由三一集团旗下华胥基金、范式智能等产业资本,IDG资本、高榕创投等知名投资机构,以及诚通混改基金等国资背景资金共同参与。资金将用于下一代推理GPU的研发、量产及生态建设,标志着国产AI芯片在推理赛道迈出关键一步。
与传统GPU厂商聚焦训练场景不同,曦望自成立之初便确立"All-in推理"的战略定位。公司前身是商汤科技大芯片部门,核心团队在服务实际AI业务过程中,积累了模型演进、算子优化等关键领域的深刻认知。这种技术基因使其在芯片架构设计上突破传统训推一体框架,针对推理场景的调度、缓存、片上存储等环节进行原生优化,配合LPDDR内存技术,实现单位Token推理成本显著降低。
团队构成是曦望的核心竞争力之一。联席CEO王勇拥有20年芯片研发经验,曾主导AMD、昆仑芯多代产品开发,2020年加入商汤后成功推出两代量产芯片;另一位联席CEO王湛作为百度创始团队成员,曾管理8000人团队负责搜索业务,2025年加入后主导公司商业化进程。目前300人的团队中,70%成员来自NVIDIA、AMD等国际芯片企业,平均行业经验达15年,形成技术工程与商业落地的双重保障。
在产品布局上,曦望已形成覆盖视觉推理到大模型全场景的三代芯片矩阵。2020年量产的S1芯片作为国内首款视觉推理专用芯片,已授权索尼、小米等企业使用;2024年推出的S2芯片兼容CUDA生态,成功适配DeepSeek、Qwen等主流模型;即将发布的S3芯片通过FP8/FP4低精度推理技术,将单位Token成本降至行业新基准的百分之一,目标实现"百万Token一分钱"的突破性进展。公司累计持有200余项核心专利,且三代产品均实现"一次流片成功",彰显技术成熟度。
这种差异化路线源于对AI产业演进趋势的精准判断。当模型训练进入技术深水区,推理环节的效率、成本和稳定性已成为决定商业化成败的关键因素。曦望选择不与通用GPU厂商正面竞争参数指标,而是通过全栈自研(涵盖指令集、IP核、编译工具链等)构建技术壁垒,在芯片架构、内存技术、生态兼容等维度形成独特优势。其商业模式定位为现有算力体系的"推理优化层",通过与本土芯片厂商合作构建专用加速区,帮助客户降低30%-50%的推理成本。
据公开资料显示,曦望成立至今研发投入累计达20亿元,这种持续高强度投入已转化为显著的市场优势。其S2芯片在相同性能下功耗降低40%,成本仅为国际竞品的60%,已获得多家互联网大厂和AI独角兽的测试认证。随着AI应用从训练主导转向推理主导,这种聚焦场景经济性的技术路线,正在重塑国产AI芯片的竞争格局。











