ITBear旗下自媒体矩阵:

Taalas“硬连线”技术突破:集群方案助力DeepSeek R1实现高速文本生成

   时间:2026-02-21 09:58:33 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能算力竞争愈发白热化的背景下,AI芯片领域迎来一位创新者——初创公司Taalas。该公司近日宣布推出基于“硬连线”技术的专用芯片解决方案,通过将AI模型直接固化在硅片中,试图破解大模型推理延迟与成本高企的行业难题。

与传统依赖高带宽内存(HBM)和复杂封装的加速方案不同,Taalas选择了一条激进的技术路线。其核心创新在于开发出可将任意AI模型转化为定制硅片的平台,通过“计算存储融合”设计,将特定大语言模型(LLM)的神经网络结构直接映射至芯片电路。这种架构在DRAM级密度下完成所有计算,从物理层面消除了数据传输的内存墙瓶颈,同时省去了HBM、先进封装及散热系统的成本。

首款产品HC1芯片专为meta的Llama 3.1 8B模型优化,采用台积电6nm工艺制造,芯片面积达815平方毫米,与英伟达H100相当。实测数据显示,该芯片在在线聊天场景中可实现每秒15,000个token的生成速度,内部测试条件下更接近17,000 tokens/秒。公司承认这一成绩部分得益于对模型参数的激进量化处理。

这种极致速度的代价是参数密度的显著牺牲。80亿参数的模型容量与当前万亿参数的前沿模型形成鲜明对比,反映出硬连线技术在单位面积参数效率上的物理局限。但Taalas通过集群化扩展策略弥补了单芯片缺陷——在针对DeepSeek R1模型的测试中,30芯片集群实现了每用户12,000 token/秒的吞吐量,较现有GPU方案提升约60倍。

性能突破带来成本革命。官方数据显示,HC1方案在保持10倍于高端算力基础设施的token生成速度同时,将生产成本压缩至传统方案的二十分之一。这种颠覆性优势源于硬连线架构对存储和计算资源的极致优化,以及省去HBM等昂贵组件的架构设计。

然而,这项技术面临独特的商业挑战。由于模型权重被永久固化在芯片中,HC1无法通过软件更新适配新算法版本。客户必须为特定模型版本采购专用硬件,这意味着每次AI模型迭代都可能导致既有硬件的淘汰风险。这种“模型-芯片”强绑定的模式,在快速演进的AI领域可能构成商业化障碍。

当前,Taalas正通过模块化设计缓解这一问题。其集群方案支持不同模型芯片的混合部署,试图在保持性能优势的同时,延长硬件的生命周期。但如何平衡技术激进性与商业可持续性,仍将是这家成立仅2.5年的初创公司必须面对的核心课题。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version