在AI算力军备竞赛愈演愈烈的当下,全球科技巨头纷纷投入巨资布局AI基础设施,数据中心如雨后春笋般涌现。然而,一个关键问题逐渐浮出水面:巨额投入的算力是否得到了充分释放?国内RISC-V架构AI芯片领域的领军企业奕行智能通过研究发现,当前各类AI加速器的实际利用率远低于理论峰值,硬件性能的发挥受到软件调度方式的严重制约。
针对这一行业痛点,奕行智能研发的基于Tile级虚拟指令集的动态调度架构(TISA)提供了创新解决方案。该架构通过构建编译器与硬件之间的新型调度语义契约,使芯片能够根据实时运行状态自主决策任务分配,实现了算力资源的动态优化配置。这项突破性成果已获得国际认可,相关论文被计算机体系结构领域顶级会议ISCA 2026收录,标志着中国AI芯片企业在核心技术路线设计上达到世界领先水平。
传统AI芯片采用编译时静态调度模式,如同预先制定固定生产计划,无法应对运行时的带宽争用、温控降频等突发状况。即便部分现代GPU引入了线程束级动态调度,仍局限于CUDA Core内部指令协调,无法实现数据搬运单元、Tensor Core与CUDA Core的协同并发。TISA架构通过三项核心技术创新突破了这些局限:语义保留编译器完整传递算子依赖关系等关键信息;Tile级指令集为每个计算任务配备标准化"任务说明卡";冲突感知运行时调度器以纳秒级响应速度实现计算单元的动态负载均衡。
在FlashAttention-3注意力机制实现测试中,TISA架构展现出显著优势:代码量减少30%,同步调用次数降低50%,性能达到手工优化基线的95%以上。更值得关注的是,这套指令流既可在奕行智能自研的EPOCH芯片上运行,也能适配其他第三方硬件平台,首次在AI芯片领域实现了Tile粒度的跨平台动态调度。这种技术路径为云端大模型推理和端侧AI部署等资源受限场景提供了高效解决方案,有助于行业摆脱单纯追求算力规模的粗放发展模式。
作为国内首款基于RISC-V+RVV指令集架构的大算力芯片,EPOCH已于今年实现大规模量产出货。该芯片采用类TPU架构设计,通过E Link互联技术支持Scale Up与Scale Out融合组网,在RestNet50、BERT-Base等主流模型测试中,推理速度较国际竞品提升25%-52%。在生态建设方面,奕行智能正与vLLM、Triton等开源社区深度合作,计划开源虚拟指令集并举办RISC-V AI应用大赛,加速构建自主可控的AI算力生态。
奕行智能的技术突破反映了AI芯片设计范式的转变:从静态确定性设计转向运行时智能优化。这种转变需要编译器技术、硬件架构和生态系统的协同创新,为行业提供了在有限算力资源下实现更高能效比的新思路。随着RISC-V架构在数据中心领域的加速渗透,以TISA架构为代表的动态调度技术有望重塑AI算力版图,推动行业进入能效比竞争的新阶段。











