在人工智能技术飞速发展的当下,海量数据处理需求与硬件能效瓶颈的矛盾愈发突出。北京大学人工智能学院科研团队近日宣布,在模拟计算芯片领域实现关键技术突破,成功研制出全球首款面向“非负矩阵分解”算法的专用模拟芯片,为解决复杂计算任务中的能效难题提供了创新方案。
“非负矩阵分解”作为机器学习领域的核心算法,广泛应用于图像识别、推荐系统、基因测序等场景。但传统数字芯片在处理这类任务时,受限于冯·诺依曼架构的固有缺陷,面临计算延迟高、内存带宽不足等挑战。研究团队创新性地采用模拟计算技术,通过模拟电子信号的物理特性直接完成矩阵运算,彻底改变了传统芯片的运算逻辑。
实验数据显示,这款新型芯片在典型应用场景中展现出惊人性能。与当前最先进的数字芯片相比,其运算速度提升达12倍,而单位能耗下的计算量提升超过228倍。在图像压缩测试中,芯片在保持98%以上重建精度的同时,将存储空间需求降低50%;在电商推荐系统训练中,其处理效率较传统硬件提升近一个数量级。
该成果突破了传统芯片设计的思维定式。研究团队通过构建模拟信号处理网络,使矩阵运算过程与物理规律自然契合,既避免了数字电路中频繁的模数转换,又通过并行计算架构大幅提升了数据吞吐量。这种设计使得芯片在处理非结构化数据时具有天然优势,特别适合需要实时响应的大规模计算场景。
国际权威期刊《自然·通讯》最新一期以封面论文形式发表了这项研究成果。审稿专家评价称,该工作开创了模拟计算芯片的新范式,为解决人工智能时代的能效危机提供了全新思路。目前,研究团队正与多家企业合作推进技术转化,预计未来三年内将在智能安防、医疗影像、金融风控等领域实现规模化应用。











