灌水论文为何泛滥?
过最近,对于机器学习会议出版的各种论文出现了质疑的声音,并也获得了不小的关注: 近日,Reddit上,一位出身于传统工程领域的小哥发布了一则帖子,上面记录了他对近期机器学习出版论文的观察: 「 我注意到,有很多研究人员致力于诸如优化、控制、信号处理等“老”领域的交叉领域,他们会突然发表大量的声称要解决某个问题的论文。 而问题本身通常是最近产生的,有时会涉及到一些深度神经网络。 然而,经过仔细检查,这些论文唯一的新奇之处,是这个问题(通常是由其他不相关的团体提出的),而不是研究人员提出的旨在解决这个问题的方法。 我很困惑,为什么大量看似 「 很弱」的论文,居然可以被接受。着,这位小哥发现了这些论文能投中会议的秘诀: 1.只发机器学习会议这些研究小组只会在机器学习会议上发表文章(而不会在优化和控制会议/期刊上发表文章,而这些可能是他们工作的核心)。 例如,在一篇关于对抗机器学习的论文中,整篇论文实际上是关于解决一个优化问题的,但优化的算法基本上只是在其他前人优秀方法的基础上稍微变化了一点而已。 此外,这位小哥还注意到,如果一篇论文没有通过NeurIPS或ICLR,它们将被直接发送到AAAI和其他一些小型会议,在那里它们将被接受。 所以,在这个领域里,并没有什么东西被浪费掉。 2.审稿人们不知道发生了什么通过openreview,国外小哥发现审稿人(不仅仅是研究人员)对他们的特定领域一无所知,而似乎只会评论论文的正确性,而不是新颖性。 事实上,他怀疑审稿人自己是否知道这种方法的新颖性。
在这里所说的新颖性,是指某项技术的最新发展是多么新颖,尤其是当它与运筹学、优化、控制和信号处理相交叉时,而实际上,最先进的技术可能远远超乎了主流机器学习研究者的认知。 (编辑:惠州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |