多伦多一家专注于AI芯片的初创企业Taalas近日宣布完成1.69亿美元新一轮融资,投后累计融资规模达2.19亿美元。本轮融资由Quiet Capital、Fidelity及半导体行业资深投资人Pierre Lamond共同参与,资本的注入标志着市场对非英伟达通用GPU算力路径的认可正在增强。
该公司同步发布了首款功能性演示芯片HC1,采用台积电6nm制程工艺。与通用加速器不同,HC1专为开源大模型Llama 3.1 8B优化设计。其核心创新在于将AI模型直接固化至硬件层面,通过mask ROM recall fabric与SRAM架构组合,将模型权重写入芯片而非依赖动态加载。这种设计绕开了传统GPU因通用性需求预留的冗余运算单元,同时规避了HBM高带宽内存的功耗瓶颈。
性能数据显示,HC1可实现每秒17,000 token的生成速度,较英伟达H200提升73倍,功耗仅为后者的十分之一。这种能效优势源于架构层面的取舍:传统GPU为适配多种模型保留大量可编程单元,而HC1通过专用化设计将硬件资源完全聚焦于特定模型。更关键的是,其定制周期可压缩至两个月,相比传统大厂半年以上的交付周期形成显著竞争优势。
Taalas选择的技术路径被称为MSIC(Model-Specific Integrated Circuit),即模型专用集成电路。当前AI产业正经历关键转型:训练阶段仍由通用GPU主导,但推理环节的规模化部署已成为竞争焦点。企业开始更关注每token成本、能效比及交付速度等指标,而非单纯追求峰值性能。在美国强化算力主权、数据中心能耗压力上升的背景下,这种技术路线展现出独特价值——若能用十分之一功耗运行同等规模模型,将彻底改变企业的AI投资回报模型。
行业分析指出,若Taalas能将专用化方案扩展至更大参数模型,AI算力市场可能从通用芯片主导转向通用与专用芯片共存的格局。但这种极致效率的代价是灵活性的丧失:英伟达B200可适配未来出现的任何新架构,而HC1流片后即锁定特定模型。这意味着公司必须押注Llama等开源架构的长期主导地位,若行业转向全新模型架构,现有专用硬件将面临快速贬值风险。
为应对这种不确定性,Taalas已启动下一代HC2处理器的研发,目标支持200亿参数模型,并计划在2026年底前实现对GPT-5级别系统的覆盖。目前其战略重心明确指向推理市场——尽管英伟达在训练环节的通用性壁垒短期内难以突破,但推理环节的成本敏感度正在持续提升。若MSIC路线能证明具备商业可行性与跨模型扩展能力,或将动摇整个AI芯片行业的架构设计共识。











