投稿指南
一、稿件要求: 1、稿件内容应该是与某一计算机类具体产品紧密相关的新闻评论、购买体验、性能详析等文章。要求稿件论点中立,论述详实,能够对读者的购买起到指导作用。文章体裁不限,字数不限。 2、稿件建议采用纯文本格式(*.txt)。如果是文本文件,请注明插图位置。插图应清晰可辨,可保存为*.jpg、*.gif格式。如使用word等编辑的文本,建议不要将图片直接嵌在word文件中,而将插图另存,并注明插图位置。 3、如果用电子邮件投稿,最好压缩后发送。 4、请使用中文的标点符号。例如句号为。而不是.。 5、来稿请注明作者署名(真实姓名、笔名)、详细地址、邮编、联系电话、E-mail地址等,以便联系。 6、我们保留对稿件的增删权。 7、我们对有一稿多投、剽窃或抄袭行为者,将保留追究由此引起的法律、经济责任的权利。 二、投稿方式: 1、 请使用电子邮件方式投递稿件。 2、 编译的稿件,请注明出处并附带原文。 3、 请按稿件内容投递到相关编辑信箱 三、稿件著作权: 1、 投稿人保证其向我方所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我方所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我方所投之作品不得同时向第三方投送,即不允许一稿多投。若投稿人有违反该款约定的行为,则我方有权不向投稿人支付报酬。但我方在收到投稿人所投作品10日内未作出采用通知的除外。 5、 投稿人授予我方享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 投稿人委托我方声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌

来源:语言研究 【在线投稿】 栏目:综合新闻 时间:2022-06-14
作者:网站采编
关键词:
摘要:Birhane 是所谓的 “AI 知觉论” 的长期批评者。她在一篇发表于2020年的论文里,曾经直接提出了以下几个观点: 然而在谷歌看来,这位研究员完全 想多了,甚至有点走火入魔了。LaMDA

Birhane 是所谓的 “AI 知觉论” 的长期批评者。她在一篇发表于2020年的论文里,曾经直接提出了以下几个观点:

然而在谷歌看来,这位研究员完全想多了,甚至有点走火入魔了。LaMDA 真的不是人,它纯粹就是特别会聊天而已……

“具备知觉 (to be sentient) 的意思是意识到你在这个世界里的存在。LaMDA 并没有这样的意识,” Marcus 写道。

“在 AI 群体内,对于具备感知的 AI/通用 AI 的长期可能性,确实有一些研究。然而在今天把对话模型来拟人化,这样做是没有意义的,因为这些模型是没有知觉的。”

如果你以为这些聊天机器人具有人格,那么有幻觉的应该是你……

1)大家天天炒的 AI 并不是真的 AI,而是统计学系统,是机器人 (robot);2)我们不应该赋予机器人权利;3)我们甚至压根就不应该讨论是否要赋予机器人权利……

但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”

这些模式可能很酷,但这些系统说出的语言,实际上根本没有任何的意义,更不可能意味着这些系统是有智慧的。”

然而,真正的 AI 专家们,却对此嗤之以鼻。

“简直是扯淡。无论是 LaMDA 还是它的近亲们(比如 GPT-3)都没有什么智能。它们所做的只是从人类语言的大规模统计数据库当中提取,然后匹配模式。

纽约大学心理学教授 Gary Marcus,同时也是一位颇为知名的机器学习和神经网络专家,还直接撰文吐槽 LaMDA 具备人格 “胡说八道” (Nonsense)。[1]

你看着 LaMDA 说的话都特别有哲理,特别真实,特别像人——然而它的设计功能就是模仿别人说话,它其实根本不知道自己在说什么。

更何况就连图灵测试的参考价值也没那么高了。Macus 直言,很多 AI 学者希望这个测试被取消、被人们遗忘的原因,正是因为它利用了人类容易上当,倾向于将机器当作人的这一弱点。

“基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。

(这个宾果卡的意思就是,如果你认为 AI 有人格/知觉,并且你的论据是下面的其中一种,那你最好就别聊了!)

然而根据电影的描绘,这种错觉其实来自于当代人社交失败、情感破裂、孤独感等一系列自我和社会性的问题,跟聊天机器人到底是不是人这一技术性的问题,压根没有半毛钱关系。

斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:

消息经过一众媒体的报道,震撼了整个科技世界。不仅学术和工业界,就连很多普通人,都对 AI 技术的飞跃大吃一惊。

不过,至少在今天,谈啥都别跟机器人谈感情……

*参考资料:

事情在社交网络上发酵之后,谷歌很快作出了回应:

“这些系统能够基于数以百万计的句子来模仿交流的方式,并且在任何有趣的话题上都能够扯出有意思的内容。如果你问它们做一支冰激淋恐龙是怎样的体验,它们可以生成大量关于融化咆哮之类的文字。”

LaMDA 和公司近几年的大型 AI 项目一样,都经过了多次严格的 AI 道德方面的审核,对其内容、质量、系统安全性等进行了多方面的考量。今年早些时候,谷歌也专门发表了一篇论文,公开了 LaMDA 开发过程当中的合规细节。

比利时 Donders Institute 计算认知科学教授 Olivia Guest 也加入了“战局“,称整个事情的逻辑是错乱的。

总而言之,各位业界大牛的结论就是:你最多可以说 LaMDA 能够高分通过图灵测试。说它具备人格?那可真是太搞笑了。

将各种情绪(比如思念)托付在物件上,是人类自古以来就具有的一种创造性的情感能力。将大规模语言模型当成人,对其倾注情感,虽然被各位 AI 大佬批评为一种心理误差,不也正是人之所以为人的体现吗?

英国谢菲尔德大学机器人学院教授 Roger Moore 指出:人们会有 “AI 获得人格”的这种错觉,一个最关键的原因就是当年的那帮研究员非要管这项工作叫做“语言建模”。

翻译成白话就是:

当然,有这些问题并不是我们的错,想要把机器人当成人,也不是那个研究员的错。

很快,这位仁兄就被“带薪休假了”。

[1] Nonsense on Stilts by Gary Marcus Text Area、谷歌

文章来源:《语言研究》 网址: http://www.yyyjzzs.cn/zonghexinwen/2022/0614/1440.html



上一篇:68岁语言学家黄锦章逝世
下一篇:青海民族大学获批首个教育部高校国别和区域研

语言研究投稿 | 语言研究编辑部| 语言研究版面费 | 语言研究论文发表 | 语言研究最新目录
Copyright © 2018 《语言研究》杂志社 版权所有
投稿电话: 投稿邮箱: