ITBear旗下自媒体矩阵:

SRAM架构助力AI推理提速 英伟达OpenAI布局引行业关注

   时间:2026-02-27 16:18:07 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

广发证券最新发布的行业研究报告指出,在人工智能大模型应用领域,基于SRAM(静态随机存取存储器)的芯片架构正成为技术突破的关键方向。相较于传统依赖外置HBM(高带宽存储器)的方案,SRAM通过缩短数据访问路径,有效降低了权重与激活数据的传输延迟和波动性,显著提升了模型推理的响应速度和稳定性。

作为片上存储的核心组件,SRAM直接集成于CPU或GPU计算单元附近,具备纳秒级访问时延和确定性带宽优势。尽管其容量和成本相对受限,但在AI推理场景中,这种"近计算存储"架构展现出独特价值。报告特别提到,Groq和Cerebras两家创新企业已率先推出基于SRAM的专用AI芯片,并在性能测试中取得突破性成果。

Groq的LPU芯片单芯片集成230MB SRAM,实现80TB/s的片上存储带宽。在Llama3.3 70B模型测试中,该芯片以275-276token/s的稳定推理速度领先行业,较传统平台提升显著。Cerebras的晶圆级引擎WSE-3则更进一步,集成44GB SRAM和21PB/s带宽,在GPT-OSS 120B推理任务中达到每秒超3000token的输出速度,是主流GPU方案的15倍。今年2月,OpenAI推出的GPT-5.3-Codex-Spark预览版便运行于Cerebras加速平台,实现每秒千token级的代码生成响应。

行业动态显示,SRAM架构正获得头部企业重点布局。去年12月,英伟达以200亿美元获取Groq知识产权的非独家授权,涵盖其语言处理单元及配套软件库,并引入核心工程团队。今年2月,Cerebras完成10亿美元F轮融资后估值达230亿美元,同时与OpenAI签署价值百亿美元的芯片部署协议,计划建设750兆瓦规模的定制AI算力中心。

研究报告强调,AI模型参数规模持续扩张背景下,存储架构创新成为突破算力瓶颈的关键。SRAM通过将存储单元与计算核心深度融合,有效解决了数据搬运带来的能耗和延迟问题,这种技术路径正在重塑AI基础设施竞争格局。报告建议关注产业链中掌握核心存储技术的企业,但同时提示需警惕AI产业需求波动、服务器出货量不及预期以及国产技术迭代风险等潜在挑战。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version