-
_NEWSDATE: 2026-04-02 | News by: 第一财经 | 有0人参与评论 | 专栏: 谷歌 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
最后,谷歌在回应中暗示对方“别有用心”,指出论文自2025年4月就在arXiv发布,对方有将近一年时间通过学术渠道提问题,却等到论文获得广泛关注后才闹大。
根据高健扬此前的回应,早在2025年5月双方就通过邮件私下沟通,2025年11月还曾联系ICLR组委会,但均未得到有效回应。直到谷歌通过官方渠道将论文推上千万级曝光量的神坛,学术纠正才变得迫在眉睫。
在OpenReview上,有研究者评论,这是一个值得更多关注的严重问题。“看到从事实际基础工作的人被忽视,而大型、有影响力的组织却大肆宣传自己的成果,这令人沮丧。”在这一点上,感觉不像是科学,更像是一场与大厂的公关竞赛。
同时,TurboQuant论文的审稿人也站出来表达态度,称由于其理论分析和实验结果,对这篇论文曾给予了很高的评价。
“然而我也明确指出,RaBitQ和TurboQuant都使用随机旋转,并要求TurboQuant的作者比较TurboQuant和RaBitQ之间的设计差异如何影响性能。”这位审稿人表示,正确的学术实践是在论文中深入讨论RaBitQ和TurboQuant之间的差异,但审稿时“惊讶地发现RaBitQ在主论文的实验部分只提到过一次”。
不可否认,TurboQuant在技术层面具备商业潜力。一位人工智能硕士在知乎上分析称,在大模型推理场景中,KV缓存内存占用直接决定单卡可同时处理的请求数量,是推理服务商最核心的经济指标。同样一张卡,并发量若提升6倍,每个请求的推理成本理论上可降至原来的六分之一。对于那些每天处理数十亿次API调用的AI厂商而言,这将是一项巨大的降本利器,这也是此次股市震荡的原因。
谷歌这一论文即将在4月底的机器学习顶级会议ICLR 2026上发表,但看起来团队要先迈过这场学术争议的门槛。风波最终会如何收场,仍有待观察。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见