ITBear旗下自媒体矩阵:

北京大学团队突破模拟计算瓶颈 新型芯片算力远超传统GPU

   时间:2025-10-23 16:13:04 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

北京大学人工智能研究院孙仲研究员团队与集成电路学院研究团队携手,在芯片研发领域取得重大突破——成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。该芯片首次构建了精度可与数字计算相媲美的模拟计算系统,相关研究成果于10月13日发表于《自然·电子学》期刊。

在求解大规模MIMO信号检测等关键科学问题时,这款芯片展现出惊人性能:其计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。以128×128矩阵求逆问题为例,传统GPU需运行一整天的计算任务,该芯片仅需一分钟即可完成。

对于公众而言,"模拟计算"是既熟悉又陌生的概念。孙仲研究员用通俗比喻解释其原理:"数字计算需要将所有数据转换为0和1的符号串,例如数字'十'要转译为'1010';而模拟计算直接使用连续物理量进行类比,数学上的'十'可直接对应十伏电压。"这种"类比计算"模式省去了数字编码的中间环节。

历史上,模拟计算机曾在20世纪30-60年代占据主导地位,但随着计算任务复杂度提升,其精度局限逐渐显现。此次研究的核心突破,正是解决了模拟计算长期存在的精度瓶颈。团队通过物理规律直接运算的方式,实现了计算过程与数据存储的深度融合。

与传统冯诺依曼架构的数字芯片不同,基于阻变存储器的模拟计算芯片具有三大优势:其一,无需将数据转化为二进制数字流;其二,免除过程性数据存储需求;其三,将计算与存储功能整合。这种架构创新使芯片在处理矩阵方程求解(AI二阶训练核心)时,展现出低功耗、低延迟、高并行的特性。

在精度验证实验中,团队成功实现16×16矩阵的24比特定点数精度求逆。经过10次迭代后,矩阵方程求解的相对误差低至10⁻⁷量级。性能测试显示,该芯片在32×32矩阵求逆任务中已超越高端GPU单核性能,当问题规模扩大时,其计算优势愈发显著。

相较于专注矩阵乘法(AI推理核心)的存算一体方案,孙仲团队选择更具挑战性的矩阵方程求解作为突破口。矩阵求逆操作的时间复杂度达立方级,对计算精度要求极高。模拟计算通过物理规律直接运算的特性,使其在该领域具备独特优势。

关于应用前景,孙仲认为模拟计算将成为AI领域的重要补充。其最可能快速落地的场景包括机器人控制和人工智能模型训练等计算密集型领域。他特别强调,这种新型计算架构并非要取代现有体系,而是与CPU、GPU形成互补:CPU作为通用"总指挥"保持核心地位,GPU专注矩阵乘法加速,模拟计算芯片则高效处理AI领域最耗能的矩阵逆运算。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version