ITBear旗下自媒体矩阵:

联发科开发者大会:AI工具套件发力,手机AI生态未来可期?

   时间:2026-05-14 08:17:48 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在近期举办的联发科开发者大会上,这家芯片厂商再次成为科技圈的焦点。与苹果WWDC、华为HDC等知名盛会不同,联发科选择以AI技术为核心,展示其在移动计算领域的最新突破。

大会现场最引人注目的当属"Sensing Claw"技术的发布。这项被业内戏称为"龙虾"的技术,旨在解决AI应用在移动设备上的算力瓶颈问题。通过端云协同架构,手机仅需负责采集摄像头、麦克风等传感器的原始数据,而复杂的AI推理任务则交由云端大模型处理。这种分工模式既保证了实时性,又显著降低了终端设备的功耗负担。

联发科工程师现场演示了多个实用场景:在电商购物时,AI可自动跨平台比价;餐厅等位时,手机能持续监听叫号信息而不影响其他应用运行。这些功能背后,是持续多模态感知技术对硬件提出的严苛要求。测试数据显示,仅麦克风常开状态就会使设备续航缩短30%,若叠加实时音频处理,功耗将呈指数级增长。

为应对挑战,联发科祭出双NPU架构这一杀手锏。去年发布的天玑9500处理器首次采用双神经网络处理单元设计,理论AI算力较前代提升120%。更关键的是,新推出的eNPU开发工具可优化模型调度,使常驻轻载AI的功耗降低42%。这意味着手机在运行语音助手、环境感知等基础AI功能时,能耗表现将接近传统传感器水平。

开发套件中的LVM模型可视化部署工具同样引发关注。该系统将原本需要手动编写的神经网络代码转化为图形化模块,开发者通过拖拽组件即可完成模型训练与部署。某参会厂商透露,使用该工具后,其智能翻译应用的开发周期从6周缩短至10天,且模型体积减小35%。

针对中低端设备痛点,联发科推出的Low Bit压缩技术可实现模型"瘦身不减智"。通过动态量化算法,相同精度的AI模型在内存占用上可减少58%。这项突破使得旗舰机专属的图像超分、场景识别等功能,有望普及至千元级机型。

值得关注的是,OPPO、小米等头部厂商已基于天玑平台展开深度开发。某品牌展示的原型机可同时运行语音交互、图像分割、位置感知三个AI任务,而整机功耗仅增加17%。这种多模态融合应用,预示着移动AI即将进入全时感知的新阶段。

在汽车电子领域,联发科同步更新了智能座舱解决方案。新平台支持最多12块屏幕协同工作,并可通过AI动态分配算力资源。当导航、影音、ADAS辅助同时运行时,系统可自动将80%的GPU资源调配至最关键任务,确保驾驶安全。

这场技术盛宴背后,折射出联发科冲击高端市场的雄心。过去三年,该公司通过持续举办开发者大会,逐步构建起涵盖芯片、工具、生态的完整体系。据Counterpoint数据,2025年第四季度联发科在全球5G手机芯片市场的份额已达38%,但其中超过70%来自中低端机型。如何将技术优势转化为品牌溢价,仍是其亟待破解的课题。

随着AI算力竞赛进入深水区,移动芯片厂商的竞争焦点正从单纯性能比拼转向能效优化。联发科此次展示的端云协同架构,或许为行业指明了新的发展方向——通过硬件创新与软件优化的双重突破,让AI真正成为普惠型技术。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version