ITBear旗下自媒体矩阵:

本地算力自由新方案:300克Agent盒子众筹火爆,能否终结AI使用焦虑?

   时间:2026-04-06 16:34:23 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

AI硬件领域正经历一场前所未有的变革,一款名为Tiiny AI Pocket Lab的智能体盒子引发了行业广泛关注。这款重量仅300克、尺寸与手机相仿的设备,在Kickstarter众筹平台上已筹得280万美元,预计最终金额将突破400万美元。其核心卖点在于支持本地部署最高120B参数的大模型,且无需依赖云端服务或高端GPU,彻底消除了持续产生的Token费用。

传统方案中,用户若想在本地运行超过120B的大模型,需配备显存达80GB的PC电脑,整机成本超过5万元;即便选择苹果Mac Studio(96GB内存版),价格也需2万元以上。更关键的是,这些设备在运行大模型时,内存与算力会被过度占用,导致无法同时进行网页浏览、游戏或视频播放等基础操作。Tiiny AI副总裁Eco Lee指出:"用户需要的是专用AI设备,而非用数万元的电脑仅用来跑模型。"

Tiiny AI的解决方案是打造外接式独立设备,通过系统级优化实现算力高效利用。其技术核心在于PowerInfer异构算力推理加速技术,该技术将大模型参数分为"热激活参数"(占20%,每次交互必调)和"冷激活参数"(占80%,特定领域触发)。通过这种冷热分离机制,设备使用单颗SoC加dNPU的组合,即可实现媲美高端GPU的推理性能。团队公开的测试数据显示,在NVIDIA RTX 4090上运行175B模型时,该技术可使速度提升至传统方案的11倍。

设备内置的Agent Store已适配OpenAI OSS、Qwen、GLM等50余款开源大模型,以及OpenClaw、n8n等超百款开发工具。为丰富生态,Tiiny计划今年7月推出模型格式转换工具,用户可从Hugging Face等社区下载模型,经转换后导入设备使用,并支持用户间分享。Eco Lee比喻称:"云端大模型像瓶装矿泉水,而Tiiny是专属的AI水龙头,满足高频次、个性化的日常需求,且边际成本为零。"

在隐私保护方面,设备采用端侧部署模式,用户数据、凭证和工作流默认存储在本地,仅在需要调用更强云端模型时才会上传敏感信息。系统引入的长期记忆功能,可将交互偏好、历史文件和对话记录加密存储在硬件中,确保离线环境下仍能完成多步推理、Agent工作流和内容生成。这种"端云协同"模式,使云端专注处理高精度任务,本地则承担持续交互场景。

尽管市场反响热烈,但质疑声同样存在。海外Reddit论坛上,部分用户通过拆解宣传照认为,缺乏高端GPU的设备难以实现宣称的功能。对此,Eco Lee强调:"我们是AI基础设施公司,核心是通过系统性优化释放硬件潜力,这与传统硬件厂商的思路有本质区别。"他透露,团队在芯片层、Agent调度层和模型训练层积累了深厚技术,这是实现性能突破的关键。

从Kickstarter留言区反馈来看,目标用户主要包括三类:使用开源应用的普通用户、对数据隐私有刚需的专业人士,以及AI极客。这些用户看重的不仅是"开箱即用"的便捷性和零Token成本,更是完全自主的控制权——即使在断网环境下,设备仍能基于本地模型和长期记忆主动执行任务。Eco Lee坦言:"隐私是加分项,但真正价值在于本地部署带来的个性化交互能力。"

按照规划,Tiiny AI Pocket Lab将于2026年8月交付。作为由AI Agent团队转型硬件的创业公司,其面临的最大挑战并非融资,而是量产过程中的品质管控。如何在300克的轻量化机身中,实现算力自由、摆脱Token束缚、确保数据私密,将成为检验其技术实力的终极考验。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version