人工智能领域迎来重大革新,初创企业EnCharge AI近期宣布成功研发出AI加速器EN100,该加速器基于模拟内存计算技术,旨在将高端AI功能融入笔记本电脑及边缘设备,减少对大型数据中心的依赖。
EN100的核心竞争力在于其卓越的能效表现。得益于EnCharge AI独有的模拟内存计算架构,EN100在各种AI应用场景下展现出惊人的性能提升,相比市面上其他解决方案,其每瓦性能高出20倍。更令人瞩目的是,运行先进AI模型时,EN100的能耗仅相当于一个普通灯泡,这一突破彻底改变了传统AI计算的高能耗现状。
EnCharge AI的首席执行官Naveen Verma表示:“EN100的问世标志着AI计算架构的一次根本性变革。它意味着安全、个性化且高效的AI应用无需依赖云端基础设施,即可在本地设备上运行。我们相信,这将极大地拓宽AI技术的应用边界。”
为满足不同场景的需求,EN100推出了两种版本。针对笔记本电脑用户,M.2版本在保持低功耗(8.25W)的同时,提供了超过200 TOPS的AI计算能力,确保复杂AI应用在不牺牲电池寿命和便携性的前提下顺畅运行。而针对专业AI应用,工作站PCIe版本则配备了四个NPU,计算能力高达1PetaOPS,以极低的成本和功耗实现了GPU级别的性能,专为处理大型数据集和复杂模型而设计。
EN100在计算密度方面同样表现出色,其模拟内存计算方法使得芯片的计算密度高达30TOPS/mm²,远超传统数字架构的3TOPS/mm²。这一显著优势使得设备制造商能够在不增加设备尺寸、重量或改变外观设计的前提下,轻松集成强大的AI功能。
EnCharge AI自成立以来,已吸引了包括老虎全球管理公司、三星风险投资和IQT在内的多家知名投资机构,累计筹集资金达到1.44亿美元。公司起源于普林斯顿大学,由创始人Naveen Verma基于其在该校长达七年的下一代计算架构研究成果创立。2024年3月,EnCharge AI还与普林斯顿大学携手,从DARPA获得了1860万美元的资助,用于开发内存计算加速器的进一步研发。
随着AI模型规模和复杂性的不断攀升,传统计算架构正面临前所未有的挑战。据国际能源署预测,到2026年,数据中心的用电量将是2022年的两倍,达到惊人的1000万太瓦,相当于日本当前的全国用电量。在此背景下,EnCharge AI的技术无疑为解决这一能源危机提供了有力的支持。
尽管EN100的早期访问计划第一轮已满员,但仍有兴趣的开发者和设备制造商可以通过访问www.encharge.ai/en100注册,期待参与即将到来的第二轮早期访问计划。目前,已有合作伙伴开始与EnCharge AI紧密合作,探索EN100在智能多模式AI代理和增强型游戏应用等领域的潜在应用。
EnCharge AI目前拥有66名员工,专注于快速增长的AI PC和边缘设备市场。在这些领域,其能效优势尤为突出,有望彻底改变AI计算的方式和部署格局。