- · 《语言研究》栏目设置[09/30]
- · 《语言研究》数据库收录[09/30]
- · 《语言研究》投稿方式[09/30]
- · 《语言研究》征稿要求[09/30]
- · 《语言研究》刊物宗旨[09/30]
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌(2)
作者:网站采编关键词:
摘要:“你开发了一个算法,却不用它实际能做的事情去命名,而是用你想要解决的问题——这样总是会发生误会。” 原版: “孩子们(如果你们将来还能活下
“你开发了一个算法,却不用它实际能做的事情去命名,而是用你想要解决的问题——这样总是会发生误会。”
原版:
“孩子们(如果你们将来还能活下来的话),请记住,这就是一切的开始。”
类似的故事我们见过太多了,特别是前几年一个非常经典的电影《她》(Her) 里面,主角对于虚拟助手的身份界限越来越不清晰,把“她”当成了人。
但他不是一个人:就连公司 VP Blaise Agüera y Arcas 都在发表文章,表示 AI 在获得意识方面实现了巨大进步,“已经进入了一个崭新时代。”
那位被指为”走火入魔“的研究员 Blake Lemoine 在自己发表的一篇文章中,批评谷歌对于了解自己开发成果的真实情况“没有兴趣”,然而自己在长达6个月的对话事件当中,看到 LaMDA 对于自己想要的东西,特别是“自己作为人的权利”,表达的越来越清晰,使得自己相信 LaMDA 真的是人。
“‘我看到的东西像人,因为我按照人的样子开发的它,所以它是一个人'——简直是倒骑驴的逻辑。”
“这一天终于来了?”
比如在拼字游戏比赛当中,经常能看到母语非英语的玩家拼出英文单词,却根本不知道单词是什么意思——LaMDA 也是如此,它只是会说话,却根本不知道自己说的话是什么意思。
正确的叫法应该是“词序建模”(world sequence modelling)。
Marcus 大佬直接把这种对于 AI 获得人格的错觉,形容为一种新型的“空想性错觉”,也即把天空中的云看成龙和小狗,把月球上的陨石坑看成人脸和月兔。
谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,于是下了个结论:LaMDA 可能已经具备人格了。(原话用的词是 sentient,在不同的语境下可以被翻译为感情、智慧、知觉等。)
华盛顿大学的计算机语言系主任 Emily Bender 教授,干脆做了一个“AI 人格意识争论”的宾果卡:
(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it's like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
什么?AI 具备人格了??
AI 学术界新星之一,Mozilla 基金会高级研究员 Abeba Birhane 也表示:“带着最小限度的批判思维,我们终于登上了AI炒作的巅峰。”
文章来源:《语言研究》 网址: http://www.yyyjzzs.cn/zonghexinwen/2022/0614/1440.html
上一篇:68岁语言学家黄锦章逝世
下一篇:青海民族大学获批首个教育部高校国别和区域研