一款名为Tiiny AI Pocket Lab的外接设备在Kickstarter平台引发关注,这款定价1399美元起的产品上线5小时即突破百万美元众筹目标,成为继2022年拓竹Bambu Lab X1后该平台最快达成此成绩的硬件项目。截至统计时点,项目已吸引2093名支持者,累计筹得295万美元资金。
该产品的爆发式增长源于精准切入市场空白。在AI PC生态尚未成熟之际,Tiiny团队通过模块化设计满足特定用户群体的核心需求:既不愿承担高昂的AI PC购置成本,又对云端服务的隐私风险与持续订阅模式心存顾虑。这款设备采用"外接移动硬盘"式设计理念,专注于100B参数级别模型的本地化推理运算,通过硬件减法与软件优化实现差异化竞争。
技术实现路径上,研发团队基于上海交通大学并行与分布式系统研究所的开源项目PowerInfer,开发出异构算力调度系统。该方案创新性地将模型参数划分为"热激活"与"冷激活"两类:占总量20%的核心参数由专用AI芯片(dNPU)处理,剩余80%的场景化参数则交由系统级芯片(SoC)运算。这种动态分配机制使设备在30W功耗下实现190TOPS(INT8)的峰值算力,性能接近主流桌面级AI显卡。
实测数据显示,在运行120B参数模型时,设备预填充阶段处理速度达300 tokens/s,解码输出阶段为20 tokens/s;35B参数模型下这两项指标分别提升至2000 tokens/s和45 tokens/s。这种运算效率已超越人类阅读速度(8-12 tokens/s),能够支持连续24小时运行的智能代理任务。针对散热挑战,团队采用1mm超薄均热板与双风扇设计,将运行噪音控制在35分贝以内。
市场定位方面,产品刻意避开与传统AI设备的正面竞争。其目标用户包含三类群体:金融、法律等领域的专业人士需要处理敏感数据;极客用户希望释放主力设备算力;科研机构需要低成本的长文本处理方案。相较于树莓派等开发板,该设备提供开箱即用的完整解决方案;对比NVIDIA Jetson系列,其价格降低60%以上,且无需额外配置存储设备。
技术争议伴随产品热度而来。行业观察者指出,其宣称的"120B大模型"实际采用混合专家(MoE)架构,单token激活参数约51亿,这种表述方式虽属行业惯例但存在概念模糊。关于算力宣传,190TOPS指标系将不同计算单元的理论峰值简单相加,未考虑异构架构间的协同效率损耗。内存配置方面,80GB存储空间分散在两个芯片,实际可用内存池受PCIe带宽限制的说法引发讨论。
针对技术质疑,研发团队公布了详细测试数据:在GPT-OSS-120B模型运行过程中,跨芯片传输的数据量仅为5.625KB,耗时远低于PCIe Gen4 x4接口的带宽上限。量产准备方面,产品已完成FCC、CE等国际认证,预计8月开始由全球顶级PC制造商LCFC在越南工厂生产,该合作伙伴的品控体系为产品质量提供保障。
资本市场对这类创新形态表现出浓厚兴趣。项目负责人透露,自众筹启动以来平均每周收到20家投资机构的接洽意向。这种热度折射出AI硬件领域的结构性机会:当通用计算设备陷入性能竞赛红海,垂直场景的专用设备正开辟新的价值赛道。该产品的市场表现或将影响后续端侧AI设备的研发方向,特别是在隐私计算与边缘智能的交叉领域。











