谷歌研究院近日高调推出了一款名为TurboQuant的极端压缩算法,宣称该技术能够显著提升AI运行效率,并将大模型键值缓存(KV Cache)的内存占用锐减至原来的六分之一,同时使推理速度提升八倍。这项被寄予厚望的技术成果迅速引发业界关注,相关论文更是在未正式发表前就获得了国际顶级会议ICLR2026的接收,并经谷歌推广后获得了数千万次浏览量。
然而,这项看似突破性的研究很快陷入争议漩涡。苏黎世联邦理工学院博士后高健扬公开指出,TurboQuant论文在描述其团队此前提出的RaBitQ算法时存在多处严重问题。作为RaBitQ的第一作者,他强调团队早在论文投稿前就已向谷歌方面指出技术声明不准确、理论对比误导性等缺陷,但对方仅承认问题却未在最终版本中修正。
据高健扬披露,争议焦点集中在三个方面:首先,TurboQuant刻意回避了与RaBitQ在关键方法论(JL变换)上的相似性;其次,论文在缺乏实证依据的情况下将RaBitQ的理论描述为"次优";更令人质疑的是,实验环节存在明显不公平——RaBitQ的测试环境为单核CPU,而TurboQuant则使用了高端A100 GPU。
这位学者进一步揭露了未被披露的技术关联:RaBitQ早已证明其渐近最优性(FOCS'17界限),而TurboQuant采用的随机旋转步骤实则与其存在理论渊源,但论文中对此只字未提。这种选择性呈现技术细节的做法,在学术界引发了对研究诚信的广泛讨论。
面对持续发酵的质疑,高健扬表示已向会议组织方提交正式投诉。这场学术争议不仅暴露了AI领域技术竞争的激烈程度,更引发了关于研究透明度和学术伦理的深层思考——在追求技术突破的同时,如何维护科学研究的严谨性与公正性,成为整个行业需要共同面对的课题。











