投稿指南
一、稿件要求: 1、稿件内容应该是与某一计算机类具体产品紧密相关的新闻评论、购买体验、性能详析等文章。要求稿件论点中立,论述详实,能够对读者的购买起到指导作用。文章体裁不限,字数不限。 2、稿件建议采用纯文本格式(*.txt)。如果是文本文件,请注明插图位置。插图应清晰可辨,可保存为*.jpg、*.gif格式。如使用word等编辑的文本,建议不要将图片直接嵌在word文件中,而将插图另存,并注明插图位置。 3、如果用电子邮件投稿,最好压缩后发送。 4、请使用中文的标点符号。例如句号为。而不是.。 5、来稿请注明作者署名(真实姓名、笔名)、详细地址、邮编、联系电话、E-mail地址等,以便联系。 6、我们保留对稿件的增删权。 7、我们对有一稿多投、剽窃或抄袭行为者,将保留追究由此引起的法律、经济责任的权利。 二、投稿方式: 1、 请使用电子邮件方式投递稿件。 2、 编译的稿件,请注明出处并附带原文。 3、 请按稿件内容投递到相关编辑信箱 三、稿件著作权: 1、 投稿人保证其向我方所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我方所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我方所投之作品不得同时向第三方投送,即不允许一稿多投。若投稿人有违反该款约定的行为,则我方有权不向投稿人支付报酬。但我方在收到投稿人所投作品10日内未作出采用通知的除外。 5、 投稿人授予我方享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 投稿人委托我方声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

这项最新调查劝退效果拉满:67% 的 NLPer 怀疑自己(2)

来源:语言研究 【在线投稿】 栏目:综合新闻 时间:2022-08-31
作者:网站采编
关键词:
摘要:Q5-2。当前的 NLP 领域过于关注优化基准性能。 Q2-4:到 2030 年,被引用次数最多的五个系统中至少有一个可能会从过去 50 年语言学或认知科学研究结果中汲

Q5-2。当前的 NLP 领域过于关注优化基准性能。

Q2-4:到 2030 年,被引用次数最多的五个系统中至少有一个可能会从过去 50 年语言学或认知科学研究结果中汲取明确的灵感。

此外,大约三分之一(36%) 的人认为,AI 决策可能会导致核战争级别的灾难。这表明,有相当一部分研究者都对 AGI 表示担忧。

另外,受访者的男女比例分别为 67% 和 25%。

NLP 研究人员应该更多考虑整合来自邻近学科(如语言学、认知科学)的见解;

AGI 会带来什么?

ACL 会议的匿名政策比许多其他会议(如 NeurIPS、ICLR 和 ICML)要严格得多。调查表明,尽管争议很多,但 NLP 社区总体上是支持这一政策的, 63% 的人认为匿名可以保证限制预印本的传播)。这个问题也显示出了明显的性别差异,有 77% 的女性表示同意,只有 58% 的男性表示同意。

不过,受访者对这两个问题的回答分歧很大,在学术界人士中,认为工业界的影响力过大的人所占比重为 82 %,而在工业界这一比例为 58%。

最近,一项针对 NLP 社区的调查反映了 NLPer 对所有这些重要问题的看法。来自华盛顿大学、纽约大学和约翰霍普金斯大学的组成的研究团队,就 NLP 领域的一些争议性问题征求了广大研究者的意见,包括研究者在大模型、AGI(通用人工智能)、语言理解、未来方向等多个方面的看法。

NLP 研究人员应该关注 AGI;

Q2-3:专家设计的强归纳偏差(如通用语法、符号系统或受认知启发的计算原语)对于解决一些重要的现实世界问题或 NLP 中的应用是必要的。

有 30 % 的人同意或弱同意寒冬将在未来 10 年内到来,其中仅有 7% 的人选择“同意”;而相信寒冬将在未来 30 年内到来的人要多得多,比例为 62%。

AGI 的争议

与规模化的观点形成对比,受访者对于语言理论、归纳偏差的支持度实际上不低。50% 的人认为,语言结构对于解决 NLP 问题是有必要的;51% 的人认为专家设计的归纳偏差也很重要。许多 NLP 研究者似乎认为,当前使用低归纳偏差的神经网络架构进行端到端建模的趋势将会发生逆转。

NLP 寒冬何时到来?

调查结果真是一看吓一跳,竟有多达 67 % 的 NLP 研究者对自己所从事研究的科学价值抱有怀疑态度!

......

受访者对“可疑”的定义可能是多样的,包括根本不具有完整性的工作、所研究问题不恰当、研究结果无意义,或者研究发现并不重要、不可靠等等。

作者匿名制度的必要性

有?67%?的 NLP 研究者对这一领域研究工作的价值进行了反思,他们认为,大多数 NLP 工作在科学意义上是可疑的。

Q4-2:对于多模态生成模型(如一个经过训练可以访问图像、传感器和执行器数据等的模型)而言,只要有足够的数据和计算资源,就可以理解自然语言。

语言模型(LM)是否能理解语言?

Q5-5:过去 5 年发表的构建可解释模型的大多数研究都走错了方向。

在模型架构、语言生成、可解释的模型、黑盒可解释性四个具体的研究方向上,受访的 NLP 研究者对以上问题的同意率分别为 37%、41%、50%、42%,争议较大。在可解释性模型问题上,社区成员的批评态度比较显著。

共有 480 位 NLPer 参与了此次调查。其中 327 人在过去三年中至少发表过两篇 ACL 论文,这部分人是调查的目标人群。

语言理论和归纳偏差的价值

其他受访者同意比例相当高的观点还有:

工业界的领域影响力

分别有 72% 和 88% 的 NLP 研究者认为,现在大家对规模化和优化基准性能的关注过多。

反对最大化规模可以解决一切问题的假设;

Q5-6:过去 5 年发表的大多数可解释黑盒模型的研究都走错了方向。

文章来源:《语言研究》 网址: http://www.yyyjzzs.cn/zonghexinwen/2022/0831/1460.html



上一篇:2022东北亚语言文化论坛发布东北亚国家语言动态
下一篇:脑科学研究证实:孩子越骂越笨是真的!部分家

语言研究投稿 | 语言研究编辑部| 语言研究版面费 | 语言研究论文发表 | 语言研究最新目录
Copyright © 2018 《语言研究》杂志社 版权所有
投稿电话: 投稿邮箱: