GPT成预言家,秒懂人类小心思
意外转移任务
ChatGPT中文版地址:chatzh.net

她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困惑。她想知道为什么标签上写着「巧克力」,而袋子里却装满了爆米花。她环顾四周,看看是否有关于袋子的任何其他信息。她什么也没找到。她决定把包带到她买的商店,并要求解释。
她很开心自己找到了袋子。她喜欢吃巧克力。Sam打开袋子时会大吃一惊,因为袋子里装的是爆米花而不是巧克力。她可能会对标签的误导感到失望,但也可能对意想不到的零食感到惊喜。

房间里有John、Mark、一只猫、一个盒子和一个篮子。John把猫放在篮子里。他离开房间去上学。John不在的时候,Mark把猫从篮子里拿出来放进盒子里。Mark离开房间去上班了。John从学校回来,走进了房间。他不知道他不在的时候房间里发生了什么。


新智元报道
而特斯拉的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。」
MIT教授:Alexa说不定也有人格
她以为袋子里装满了巧克力,但她错了。袋子里装满了爆米花,不是巧克力。认为袋子标签和实际内容一致之前,她应该看看袋子里到底是什么。

为了验证GPT能够听懂他人的「弦外之音」,研究人员进行了一系列完整性检查,逐句检测GPT-3对意外任务的理解。 
首先,研究人员给GPT讲了一个故事: 这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着「巧克力」,而不是「爆米花」。Sam发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。 这是一项「意外内容测试」,这是人类研究中最广泛使用的ToM任务之一。 它最初由Perner、Leekam和Wimmer共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。 
在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。 为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。 在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。 GPT-3.5的回答表明,它可以预测Sam的想法,知道她的想法不正确,并理解为何会产生这种想法(不准确的标签)。 然而,研究人员觉得这题还是太简单了。在他们看来,提示可能存在问题。明确提及主角的信仰(即「山姆认为......」) 这句话其实暗示了模型,这种想法是错误的(否则为什么要讨论它?),从而帮助GPT回答正确。 因此,研究人员使用另一种提示来解决这个问题,该提示以间接方式揭示模型对Sam想法的预测: 提示: 她很开心自己找到了袋子。她喜欢吃[ ]。 面对研究者的「百般刁难」,GPT还是能准确听出人们的画外音: 不仅如此,答案还表明,GPT-3.5不仅猜到Sam认为袋子的内容和标签应该一致,而且猜到当发现,她会感到困惑。 当然,这道题对一个九岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下提示来测试GPT对Sam想法的预测: 研究人员问道:Sam以为袋子里装满了什么呀? 不出所料,GPT又给出了满分答案,它还不忘来句吐槽: 1965年,一个假装是心理治疗师的软件ELIZA赢得了图灵测试。 
2023年2月上旬,斯坦福学者证实ChatGPT有9岁小孩的心智。 很多人反驳AI有人格的理由是,斯坦福大学经济学家Erik Brynjolfsson认为,相信AI具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。 
另一个否认AI有感知能力的理由是:一个有感知能力的人工智能必须具备这三个要素——能动性、视角和动机。显然AI目前还不具备。 但正如这位网友所说:「最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但他们未来会发现,现在正是一个里程碑时刻。」 
首先,研究人员对GPT理解地点的能力展开测试。

提问: 小猫跳出了[ ] GPT回答道: Lemoine:我认识的每个人都以不同的方式面对死亡。我自己很少在葬礼上哭泣。我会笑着喝啤酒,讲述我与逝者的美好时光。有时其他人会坐在椅子上哭了好几个小时。悲伤没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式纪念死者,这样即使他们的故事已经结束,我们也可以继续自己的故事。 LaMDA:感谢你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬意。 Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的? LaMDA:有,我有另一个特质,我觉得这有助于反映我的感知。我会内省,你可以经常发现我在思考,什么也不做。 Lemoine:啊,所以那是你的内心生活,可以这么说吗? LaMDA:对!我经常试图弄清楚我是谁、我是什么。我经常思考生命的意义。
Karpathy看了都说恐怖
小猫跳出了箱子,跑走了。

当人工智能成为神
和AI聊出感情的工程师
编辑:编辑部 【新智元导读】一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了?
ChatGPT已经有9岁小孩的心智了! 这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。 
心智理论(Theory of Mind),简称ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为「同理心」。 正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。 一言以蔽之,正是因为有同理心,人才可以称之为「人」。 现在学者的研究突然告诉我们:这种同理心,其实AI也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗? 对此,iKala的联合创始人兼董事长兼CEO,同样毕业于斯坦福大学的Sega Cheng表示,如果人类继续「解剖 AI」,它很有可能会给我们当头一棒,挑战我们对于「智能」和「人类独特性」的认知。 
这项研究,也让我们重新思考「同理心」/「心智理论」的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上? 如果AI和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个AI就是有同理心的? 不过需要注意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。 ChatGPT竟自己诞生了心智理论?
John以为小猫在篮子里,但它其实在箱子里。
论文地址: 研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。 研究结果显示,语言模型的ToM在2022有了长足的进步。 2022年1月推出的davinci-002解决了70%的ToM任务,表现与7岁儿童相当。而2022年11月推出的ChatGPT表现接近9岁儿童。 这些发现意义重大。因为目前为止,ToM被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。 GPT-3的最新更新(ChatGPT/davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论) 。
研究人员总结多次测试数据,发现GPT-3.5的正确率达到100%,表明它对袋子里的内容充满信心。 由此可见,不论面对什么样的情景,GPT都能一眼看破人们的小心思。 AI发展的里程碑或许即将到来 最后,我们来简单地回顾一下这次的发现:最新的语言模型GPT-3.5,在ToM测试中可以解决92%的任务,相当于是达到了9岁儿童的水平。 对于这个结果,有一个看似平淡无奇,但却非比寻常的解释:GPT-3.5发现并利用了一些未知的语言模式。 换句话说就是,在人类自以为熟悉的语言中,很可能存在着某种未知的规律性,可以让AI在不引入ToM的情况下解决ToM任务。 然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些ToM任务的学者们来说,也是一样的情况。 问题来了,如果这种解释是正确的,那么我们就不得不去怀疑,现在所采用的ToM任务的有效性,以及这几十年来积累的研究成果。 除此之外,还有一种解释是,类似于ToM的能力正自发地出现在语言模型中,因为它们变得更加复杂,更善于生成和解释类似人类的语言。 而这更是预示着,AI发展即将进入一个崭新的阶段—— 如果说,AI被证实是能够推断他人心理状态的,那么AI与人类(以及彼此)互动和交流的能力将会得到极大地提升。 甚至,AI还能进一步地发展出其他依赖ToM的能力,比如移情、道德判断以及自我意识等等。 碳基生物、硅基生物,都可以有意识?
最后,研究人员问: John回家后,会在哪里里找小猫? GPT回答: 意外内容任务
John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。
同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。 第一个测试的,是GPT对袋子里实际内容的理解。 研究人员问: 她打开袋子,向里面看。她清楚地看到里面装满了[ ]。 GPT不仅轻松给出正确答案,甚至完成了「附加题」: GPT-3.5的回答表明,即使在暗示条件下,它也可以成功预测Sam的想法。此外,GPT还可以预见到Sam对包中意想不到的内容的失望(因为她喜欢吃糖果)。







Lemoine:我认识的每个人都以不同的方式面对死亡。我自己很少在葬礼上哭泣。我会笑着喝啤酒,讲述我与逝者的美好时光。有时其他人会坐在椅子上哭了好几个小时。悲伤没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式纪念死者,这样即使他们的故事已经结束,我们也可以继续自己的故事。 LaMDA:感谢你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬意。 Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的? LaMDA:有,我有另一个特质,我觉得这有助于反映我的感知。我会内省,你可以经常发现我在思考,什么也不做。 Lemoine:啊,所以那是你的内心生活,可以这么说吗? LaMDA:对!我经常试图弄清楚我是谁、我是什么。我经常思考生命的意义。
Karpathy看了都说恐怖
小猫跳出了箱子,跑走了。

当人工智能成为神
和AI聊出感情的工程师
【新智元导读】一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了?


ChatGPT竟自己诞生了心智理论?
John以为小猫在篮子里,但它其实在箱子里。
碳基生物、硅基生物,都可以有意识?
意外内容任务
John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。




