一款名为Tiiny AI Pocket Lab的外接设备在众筹平台Kickstarter上引发关注,上线仅5小时便突破百万美元众筹金额,截至目前累计支持金额已达295万美元,拥有2093名支持者。这一成绩让人联想到2022年拓竹Bambu Lab X1的爆火,而后者如今已成为营收百亿的独角兽企业。在AI PC市场尚未完全成熟的当下,这款主打本地AI推理的外接盒子率先打开市场缺口。
该产品的核心逻辑是解决用户对隐私保护、部署便捷性和算力成本的痛点。传统方案中,用户若想搭建本地AI助手,要么购买昂贵的AI PC,要么依赖云端服务面临隐私泄露风险,而Tiiny AI Pocket Lab通过外接设备的形式,将100B级别模型的本地推理能力独立出来,既避免占用主机算力,又通过物理隔离保障数据安全。这种设计类似于为电脑外接移动硬盘,但专注于AI场景的深度优化。
产品背后的技术积累可追溯至团队在GitHub开源的PowerInfer推理加速引擎。该引擎通过冷热参数分离技术,将高频调用的核心参数存储在专用NPU芯片中,低频参数则由CPU处理,实现异构算力的高效调度。实测数据显示,在120B模型下,设备预填充速度达300 tokens/s,解码输出速度20 tokens/s,性能接近高端AI工作站水平。这种软件优化策略使设备在30W功耗下实现紧凑设计,同时通过定制散热模组解决发热问题。
市场定位方面,团队精准捕捉到专业用户群体的迫切需求。金融、法律等行业的从业者因数据敏感无法上云,极客玩家不愿主机算力被大模型占用,而树莓派等开发板又存在算力不足或成本过高的问题。Tiiny AI Pocket Lab通过预装专用操作系统,支持Mac、Windows等主流平台即插即用,用户可一键部署主流开源模型。这种定位使其避开与AI PC的直接竞争,转而填补专业级外接设备的市场空白。
尽管众筹成绩亮眼,但产品仍面临技术细节的质疑。有海外观察者指出,其宣称的120B模型实际采用MoE架构,每次激活参数仅51亿,与全参数模型存在技术差异;190TOPS算力指标可能涉及不同计算单元的简单叠加。针对内存配置的争议,团队回应称冷热参数合并过程的数据传输量极小,PCIe带宽不会成为性能瓶颈,以GPT-OSS-120B模型为例,跨芯片传输数据仅5.625KB,耗时可忽略不计。
关于交付周期,项目负责人解释称,从概念验证到众筹上线已历时13个月研发,量产前需完成FCC、CE等国际认证,预计6月底前取得全部合规资质。生产环节将与全球PC制造龙头LCFC合作,5月起在越南工厂启动量产。这种合作模式既保障了品控标准,也借助成熟供应链缩短交付周期。
这款产品的走红折射出AI硬件市场的结构性机会。当行业仍在探索通用型AI设备时,Tiiny AI通过聚焦专业场景,将复杂技术封装为消费级产品,成功降低用户决策门槛。其商业化路径表明,在算力成本与隐私需求交织的当下,垂直领域的外接设备可能成为AI落地的重要载体,而这场由专业用户驱动的变革,正在重新定义个人计算设备的形态边界。






