ITBear旗下自媒体矩阵:

我国科学家突破模拟计算难题 新型芯片助力6G与AI算力飞跃

   时间:2025-10-14 07:53:36 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

北京大学人工智能研究院孙仲研究员团队与合作者在国际权威学术期刊《自然・电子学》上发表了一项突破性研究成果,题为《基于阻变存储器芯片的高精度可扩展模拟矩阵方程求解》。该研究首次实现了模拟计算在精度上与数字计算相当的技术突破,将传统模拟计算精度提升了五个数量级,为后摩尔时代计算架构变革提供了关键技术支撑。

研究团队开发的阻变存储器芯片在求解大规模矩阵方程时展现出卓越性能。实验数据显示,该芯片在32×32矩阵求逆任务中单核算力已超越高端GPU,处理128×128矩阵时计算吞吐量达到顶级数字处理器的千倍以上。在能效比方面,相同精度下较传统数字处理器提升超百倍,这项突破为构建高能效计算中心提供了全新解决方案。

矩阵方程求解作为线性代数的核心运算,在信号处理、神经网络训练等领域具有广泛应用。传统数字计算方法面临时间复杂度立方级的挑战,而模拟计算虽具有高并行、低功耗优势,却长期受困于精度不足和扩展性差的问题。研究团队通过创新设计,将模拟低精度矩阵求逆与模拟高精度矩阵-向量乘法相结合,开发出全模拟矩阵方程求解方案,成功实现16×16矩阵的24比特定点数精度求逆。

技术实现层面,研究团队采用40nm CMOS工艺制造阻变存储器阵列,实现了3比特电导态编程。通过迭代算法设计,模拟矩阵求逆电路可在每次迭代中提供近似正确结果,有效减少迭代次数;高精度模拟矩阵-向量乘法则采用位切片方法,实现迭代过程的精细化控制。这种软硬件协同设计策略,突破了传统模拟计算在精度和扩展性上的双重瓶颈。

实际应用验证中,该技术在大规模MIMO信号检测任务中表现突出。研究团队展示的迫零检测图像恢复实验显示,经过两次迭代后接收图像即可与原始图像高度一致。误码率-信噪比分析表明,仅需三次迭代,系统检测性能就能达到32位浮点精度数字处理器的水平,展现了在实时信号处理领域的巨大潜力。

这项突破对6G通信和人工智能发展具有重要推动作用。在6G基站建设中,该技术可实现海量天线信号的实时低功耗处理,显著提升网络容量和能效。对于人工智能大模型训练,其高效支持二阶优化算法的特性,有望将训练效率提升数个量级。特别值得关注的是,终端设备可直接运行复杂信号处理和AI训练推理任务,大幅降低对云端计算的依赖,为边缘计算发展开辟新路径。

研究团队负责人孙仲研究员指出,这项突破证明了模拟计算能够以极高效率和精度解决现代科学工程中的核心计算问题。通过新型信息器件、原创电路和经典算法的协同创新,研究团队为算力提升探索出全新路径,有望打破数字计算的长期垄断,推动计算技术进入绿色高效的新时代。该成果相关论文已发表于《自然・电子学》,研究数据和实验方法可在期刊官网查阅。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version