400 128 6709

行业新闻

Transformer的开创性作品被反对,ICLR评审引发质疑!公众指责暗箱操作,LeCun透露类似经历

发布时间:2024-01-26点击次数:

去年12月,CMU和普林斯顿的2位研究者发布了Mamba架构,瞬间引起AI社区震动!

结果,这篇被众人看好有望「颠覆Transformer霸权」的论文,今天竟曝出疑似被顶会拒收?!

今早,康奈尔大学副教授Sasha Rush最先发现,这篇有望成为奠基之作的论文似乎要被ICLR 2025拒之门外。

并表示,「说实话,我不理解。如果它被拒绝了,我们还有什么机会」。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

在OpenReview上可以看到,四位审稿人给出的分数是3、6、8、8。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

虽然这个分数未必会让论文被拒收,但是3分这样的低分,也是很离谱了。

牛文得3分,LeCun都出来喊冤

这篇由CMU、普林斯顿大学的2位研究人员发表的论文,提出了一种全新的架构Mamba。

这种SSM架构在语言建模上与Transformers不相上下,而且还能线性扩展,同时具有5倍的推理吞吐量!

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

论文地址:https://arxiv.org/pdf/2312.00752.pdf

当时论文一出,直接炸翻了AI社区,许多人纷纷表示推翻Transformer的架构终于诞生了。

而现在,Mamba论文有被拒可能性,让许多人无法理解。

就连图灵巨头LeCun也下场参与了这波讨论,表示遭遇过类似的「冤屈」。

「想当年,我被引数最多,仅在Arxiv提交的论文被引超过了1880次的论文,从未被接收」。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

LeCun正是以使用卷积神经网络(CNN)在光学字符识别和计算机视觉方面的工作而闻名的,也因此在2019年获得了图灵奖。

不过他的这篇发表于2015年的《基于图结构数据的深度卷积网络》的论文,却从未被顶会接收。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

论文地址:https://arxiv.org/pdf/1506.05163.pdf

深度学习AI研究员Sebastian Raschka称,尽管如此,Mamba在AI社区带来了深刻的影响。

近来一大波研究,都是基于Mamba架构衍生出来的,比如MoE-Mamba、Vision Mamba。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

有趣的是,爆料Mamba被打低分的Sasha Rush,也在今天发表了一篇基于这样研究的新论文——MambaByte。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

事实上,Mamba架构已经有了「星星之火可以燎原」的架势,在学术圈的影响力越来越广。

有网友表示,Mamba论文将开始占领arXiv。

「举个例子,我刚看到这篇论文提出了MambaByte,一种无token的选择性状态空间模型。基本上,它调整了Mamba SSM,直接从原始token中学习。」

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

Mamba论文的Tri Dao今天也转发了这篇研究。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

如此大火的论文却被打出低分,有人表示,看来同行评审是真不关注营销的声音有多大啊。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

Mamba论文被打3分的理由

给Mamba论文打低分的原因究竟是什么呢?

可以看到给打3分的审稿人,置信度还是5,说明自己对这个评分也是非常肯定。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

在review中,他提出的问题分为两个部分:一是对模型设计的质疑,另一个是对实验提出疑问。

模型设计

- Mamba的设计动机是解决循环模型的缺点,同时提高基于Transformer模型的效率。有很多研究都是沿着这个方向进行的:S4-diagonal [1]、SGConv [2]、MEGA [3]、SPADE [4],以及许多高效的Transformer 模型(如[5])。这些模型都达到了接近线性的复杂度,作者需要在模型性能和效率方面将Mamba与这些作品进行比较。关于模型性能,一些简单的实验(如在Wikitext-103上进行语言建模)就足够了。

- 许多基于注意力的Transformer模型都展现出长度泛化的能力,即模型可以在较短的序列长度上进行训练,然后在较长的序列长度上进行测试。一些例子包括相对位置编码(T5)和 Alibi [6]。由于SSM一般都是连续的,那么Mamba是否具有这种长度泛化能力呢?

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

实验

- 作者需要与更强的基线进行比较。作者承认H3被用作模型架构的动机。然而,他们并没有在实验中与H3进行比较。从 [7] 的表4中可以看出,在Pile数据集上,H3的ppl分别为8.8(125M)、7.1(355M)和 6.0(1.3B),大大优于 Mamba。作者需要展示与H3的比较。

- 对于预训练模型,作者只展示了零样本推理的结果。这种设置相当有限,结果不能很好地证明Mamba的有效性。我建议作者进行更多的长序列实验,比如文档摘要,在这种情况下,输入序列自然会很长(例如,arXiv数据集的平均序列长度大于8k)。

- 作者声称其主要贡献之一是长序列建模。作者应该在LRA(Long Range Arena)上与更多基线进行比较,这基本上是长序列理解的标准基准。

- 缺少内存基准。尽管第4.5节的标题是「速度和内存基准」,但只介绍了速度比较。此外,作者应提供图8左侧更详细的设置,如模型层、模型大小、卷积细节等。作者能否提供一些直观的解释,说明为什么当序列长度非常大时FlashAttention的速度最慢(图8左)?

对于审稿人的质疑,作者也是回去做了功课,拿出了一些实验数据去rebuttal。

比如,针对模型设计第一点疑问,作者表示团队有意将重点放在大规模预训练的复杂性上,而不是小规模基准上。

尽管如此,mamba在wikitext-103上的表现还是大大优于所有建议的模型和更多模型,这也是我们在语言方面的一般结果所能预料到的。

首先,我们在与Hyena论文 [Poli, 表 4.3] 完全相同的环境下对Mamba进行了比较。除了他们报告的数据外,我们还调整了自己的强Transformer基线。

然后,我们将模型换成Mamba,它比我们的Transformer提高了1.7 ppl,比原始基线Transformer提高了2.3 ppl。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

针对「缺少内存基准」这一点,作者表示:

与大多数深度序列模型(包括FlashAttention)一样,内存使用量只是激活张量的大小。事实上,Mamba的内存效率非常高;我们还额外测量了125M模型在一张A100 80GB GPU上的训练内存需求。每个批由长度为2048的序列组成。我们将其与我们所知的内存效率最高的Transformer实现(使用torch.compile的内核融合和FlashAttention-2)进行了比较。

Machine Translation Machine Translation

聚合多个来源的AI翻译

Machine Translation 49 查看详情 Machine Translation

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

更多rebuttal细节,请查看https://openreview.net/forum?id=AL1fq05o7H

总的看下来,审稿人的意见,作者都已解决,然而这些rebuttal却被审稿人全部忽略了。

有人从这位审稿人的意见中找出了「华点」:或许他根本不懂什么是rnn?

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

全程围观网友表示,整个过程读起来太令人痛心了,论文作者给出了如此彻底的回应,但审稿人丝毫没有动摇,不再重新评估。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

打出一个置信度为5的3分,还不理会作者有理有据的rebuttal,这种审稿人也太烦人了吧。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

而其他三位审稿人,则给出了6、8、8这样的高分。

打6分的审稿人指出,weakness是「该模型在训练期间仍然像Transformer一样需要二次内存」。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

打出8分的审稿人表示,文章的weakness只是「缺乏对一些相关著作的引用」。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

另一位给8分的审稿人对论文大加赞赏,称「实证部分非常透彻,结果很强」。

甚至没发现任何Weakness。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

分歧如此大的分型,应该有一个解释的。但目前还未有meta-reviewer评论。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

网友大呼:学术界也衰落了!

在评论区,有人发出了灵魂拷问,究竟是谁打出了3这样的低分??

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

显然,这篇论文用很低的参数获得了更好的结果,并且GitHub代码也很清晰,每个人都可以测试,因此已经赢得了坊间公认的赞誉,所以大家才都觉得离谱。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

有人干脆大呼WTF,即使Mamba架构不能改变LLM的格局,它也是一个在长序列上有多种用途的可靠模型。竟然得到这个分数,是不是意味着如今的学术界已经衰落了?

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

大家纷纷感慨道,好在这只是四条评论中的一个,其他审稿人给出的都是高分,目前最终决定尚未做出。

有人猜测,可能是审稿人太累了,失去了判断力。

另外还有一种原因,就是State Space模型这样的全新研究方向,或许会威胁到某些在Transformer领域很有建树的审稿人专家,情况很复杂。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

有人说,Mamba论文获得3分,简直就是业界的笑话。

他们如此专注于疯狂比较细颗粒度基准,但其实论文真正有趣的部分,是工程和效率。研究正在消亡,因为我们只关心SOTA,尽管它是在该领域极其狭窄子集的过时基准上。

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

「理论不够,工程太多。」

推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历

目前,这桩「谜案」还未水落石出,全体AI社区都在等一个结果。

以上就是Transformer的开创性作品被反对,ICLR评审引发质疑!公众指责暗箱操作,LeCun透露类似经历的详细内容,更多请关注其它相关文章!


# 本田  # SEO入门画画简单  # 鞍山服装网站建设  # 空调营销推广文案  # 辽阳市企业网站优化  # 网站建设费用北京  # 洛阳seo案例  # 金华手机网站建设  # seo舆情怎么处理  # 重庆长沙网站建设  # 海伦市关键词seo排名优化  # 一是  # 数据  # 低分  # 普林斯顿  # 出了  # 都是  # 这篇  # 自曝  # 被拒  # 之作  # kite  # ai 


相关栏目: 【 行业新闻62819 】 【 科技资讯67470


相关推荐: 华为即将推出HarmonyOS 4,再度领先行业的AI技术  周鸿祎参加中美青年科技创新峰会,分享人工智能创新机遇  马斯克WAIC2025演讲全文:AI将对人类文明产生深远影响  AMD称下半年AI显卡供应充足,不需要像NVIDIA那样加价抢购  国内阅读行业首款对话式AI应用“阅爱聊”封闭内测  央广车联网亮相2025世界人工智能大会  首届亚太网络法实务大会召开 九位大咖探讨元宇宙与人工智能发展  生成式AI对云运维的3大挑战  AI大模型,将为智慧城市带来哪些新变化?  从医疗康复外骨骼到通用人形机器人,傅利叶智能推动核心技术升级  Meta 推出 Quest 超级分辨率技术,让 VR 画面更清晰  即将到来:AI婚纱设计软件实际测试,人工智能即将开创婚纱设计新纪元  美图影像节演讲实录:191次提及AI,发布7款影像生产力工具  复旦发布「新闻推荐生态系统模拟器」SimuLine:单机支持万名读者、千名创作者、100+轮次推荐  提升工作效率的智能工具:Zapier 让工作变得更简单!  衡水市冀州中学机器人社团在世界机器人大赛中斩获佳绩  B站内测 AI 搜索功能,输入“?”即可体验  懒人必备的家居清洁好物,石头自清洁扫拖机器人G20  令人惊叹!AI模型能够以iPhone照片为基础创作诗歌  V社回应拒绝上架含 AI 生成内容的游戏:审核政策正在调整中  ChatGPT 可以设计机器人吗?  西班牙小鲜肉*视频在网上疯传,本人发文澄清:是AI换脸的假视频!  科技数码圈的新物种 乐天派桌面机器人 AI +安卓+机器人 首发价1799元  南京制造的国产工业机器人:在外资品牌竞争中突围,年销售1.8万台  云南首例达芬奇机器人微创心脏手术成功开展  OpenAI限制网络爬虫访问以保护数据免被用于AI模型训练  苹果2万5的AR遭遇砍单95%:不及预期  五个IntelliJ IDEA插件,高效编写代码  「电子果蝇」惊动马斯克!背后是13万神经元全脑图谱,可在电脑上运行  机构:边缘AI或是当前预期差最大的AI方向  成功孵化首个大型模型解决方案的重庆人工智能创新中心  清华&中国气象局大模型登Nature:解决世界级难题,「鬼天气」预报时效首次达3小时  张朝阳陆川谈AI:大数据模型大幅提升工作效率,ChatGPT冲击最大的是内容创作领域  财联社首档运用虚拟人技术播报栏目《AI半小时》今晚上线!敬请期待  破解零碳产业园建设规范和成果评价难题  人工智能框架生态峰会即将召开,聚焦AI大模型技术与科学智能探索!  AI大模型火了!科技巨头纷纷加入,多地政策加码加速落地  无人机在电力巡检中的应用:全面解析高效巡检流程  报告称 70% 程序员已使用各种 AI 工具编程  大疆 DJI Mini 4 Pro 无人机曝光:流线设计,有望迎来功能性提升  换流站无线物联网络为新型电力系统铺设“数字之路”  字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA  Meta发布音频AI模型,仅需2秒片段模拟真人语音  中国气象局预测:到 2030 年,中国人工智能气象应用将达到国际领先水平  郭帆导演成功利用AI技术制作的《流浪地球3》预告片在央视热播,引发巨大反响  AI新视野,增长新势能,伙伴云受邀出席笔记侠创业讲真话AI峰会  中国联通推出“极光一号”5G机载终端,适配大疆等品牌无人机设备  30+大模型齐聚,大模型成世界人工智能大会“顶流”  中兴通讯无人机高空基站助力北京门头沟受灾乡镇保障应急通信  多家欧洲企业签署公开信,批评欧盟 AI 法案草案限制产业发展 

400 128 6709
E-mail

contact@tlftec.cn

扫一扫,添加微信

©  云南淘乐房科技有限公司 版权所有  滇ICP备2025071560号  

云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司