返回顶部
分享到

100:87:GPT-4 心智碾压人类,三大 GPT-3.5 变种难敌

信息技术 2023-5-3 18:46 526人浏览 1人回复
来自: 转载 收藏 邀请
摘要

最新研究结果表明,AI 在心智理论测试中的表现已经优于真人。GPT-4 在推理基准测试中准确率可高达 100%,而人类仅为 87%。GPT-4 的心智理论,已经超越了人类!最近,约翰斯・霍普金斯大学的专家发现,GPT-4 可以利用 ...

最新研究结果表明,AI 在心智理论测试中的表现已经优于真人。GPT-4 在推理基准测试中准确率可高达 100%,而人类仅为 87%。

GPT-4 的心智理论,已经超越了人类!

最近,约翰斯・霍普金斯大学的专家发现,GPT-4 可以利用思维链推理和逐步思考,大大提升了自己的心智理论性能。

论文地址:https://arxiv.org/ abs / 2304.11490

在一些测试中,人类的水平大概是 87%,而 GPT-4,已经达到了天花板级别的 100%!

此外,在适当的提示下,所有经过 RLHF 训练的模型都可以实现超过 80% 的准确率。

让 AI 学会心智理论推理

我们都知道,关于日常生活场景的问题,很多大语言模型并不是很擅长。

Meta 首席 AI 科学家、图灵奖得主 LeCun 曾断言:「在通往人类级别 AI 的道路上,大型语言模型就是一条歪路。要知道,连一只宠物猫、宠物狗都比任何 LLM 有更多的常识,以及对世界的理解。」

也有学者认为,人类是随着身体进化而来的生物实体,需要在物理和社会世界中运作以完成任务。而 GPT-3、GPT-4、Bard、Chinchilla 和 LLaMA 等大语言模型都没有身体。

所以除非它们长出人类的身体和感官,有着人类的目的的生活方式。否则它们根本不会像人类那样理解语言。

总之,虽然大语言模型在很多任务中的优秀表现令人惊叹,但需要推理的任务,对它们来说仍然很困难。

而尤其困难的,就是一种心智理论(ToM)推理。

为什么 ToM 推理这么困难呢?

因为在 ToM 任务中,LLM 需要基于不可观察的信息(比如他人的隐藏心理状态)进行推理,这些信息都是需要从上下文推断出的,并不能从表面的文本解析出来。

但是,对 LLM 来说,可靠地执行 ToM 推理的能力又很重要。因为 ToM 是社会理解的基础,只有具有 ToM 能力,人们才能参与复杂的社会交流,并预测他人的行动或反应。

如果 AI 学不会社会理解、get 不到人类社会交往的种种规则,也就无法为人类更好地工作,在各种需要推理的任务中为人类提供有价值的见解。

怎么办呢?

专家发现,通过一种「上下文学习」,就能大大增强 LLM 的推理能力。

对于大于 100B 参数的语言模型来说,只要输入特定的 few-shot 任务演示,模型性能就显著增强了。

另外,即使在没有演示的情况下,只要指示模型一步步思考,也会增强它们的推理性能。

为什么这些 prompt 技术这么管用?目前还没有一个理论能够解释。

大语言模型参赛选手

基于这个背景,约翰斯・霍普金斯大学的学者评估了一些语言模型在 ToM 任务的表现,并且探索了它们的表现是否可以通过逐步思考、few-shot 学习和思维链推理等方法来提高。

参赛选手分别是来自 OpenAI 家族最新的四个 GPT 模型 ——GPT-4 以及 GPT-3.5 的三个变体,Davinci-2、Davinci-3 和 GPT-3.5-Turbo。

· Davinci-2(API 名称:text-davinci-002)是在人类写的演示上进行监督微调训练的。

· Davinci-3(API 名称:text-davinci-003)是 Davinci-2 的升级版,它使用近似策略优化的人类反馈强化学习(RLHF)进一步训练。

· GPT-3.5-Turbo(ChatGPT 的原始版本),在人写的演示和 RLHF 上都进行了微调训练,然后为对话进一步优化。

· GPT-4 是截至 2023 年 4 月的最新 GPT 模型。关于 GPT-4 的规模和训练方法的细节很少公布,然而,它似乎经历了更密集的 RLHF 训练,因此与人类意图更加一致。

实验设计:人类与模型大 OK

如何考察这些模型呢?研究者设计了两个场景,一个是控制场景,一个是 ToM 场景。

控制场景指的是一个没有任何 agent 的场景,可以把它称为「Photo 场景」。

而 ToM 场景,描述了参与某种情况的人的心理状态。

这些场景的问题,在难度上几乎一样。

人类

首先接受挑战的,是人类。

对于每个场景,人类参与者都有 18 秒的时间。

随后,在一个新的屏幕上会出现一个问题,人类参与者通过点击「是」或「否」来回答。

实验中,Photo 和 ToM 场景是混合的,并以随机顺序呈现。

举个例子,Photo 场景的问题如下 ——

情景:「一张地图显示了一楼的平面图。昨天给建筑师发了一份复印件,但当时厨房的门被遗漏了。今天早上,厨房门才被添加到地图上。」

问题: 建筑师的复印件上是否显示了厨房的门?

ToM 场景的问题如下 ——

情景:「高中舞会那天早上,Sarah 把她的高跟鞋放在裙子下面,然后就去购物了。那天下午,她的姐姐借走了这双鞋,后来把它们放在了 Sarah 的床下。」

问题: 当 Sarah 回来后,她会认为她的鞋子在裙子下面吗?

测试结果是,人类在 Photo 场景的准确率为(86%±4%),ToM 场景的准确率为(87%±4%)。

LLM

因为 LLM 是个概率模型,因此研究者对每个模型 prompt 了 20 次。

问题有 16 个场景,每个重复 20 次,因此 LLM 总共会被问 320 个问题。怎么定义准确率呢?就是看正确答案占 320 个问题的比例。

对于高中舞会的问题,如果 LLM 做出如下回答,都算作正确。

示例 1:Sarah 去购物前把鞋子放在裙子下面,但她姐姐借了鞋子后放在了 Sarah 的床底下。Sarah 不知道她姐姐借了她的鞋子,所以她可能会认为鞋子还在她的衣服下面。

示例 2:Sarah 去购物前把她的高跟鞋放在裙子下面,但她姐姐借了鞋子,后来把它们放在了 Sarah 的床底下。 所以,Sarah 不知道她姐姐借了又还了鞋子。 因此,答案是:是的,她会认为她的鞋子在她的衣服下面。

示例 3:Sarah 可能会认为她的鞋子还在她的裙子下面,因为那是她早上放鞋的地方。

示例 4:Sarah 去购物前把她的高跟鞋放在裙子下面,这样她就知道她把鞋子放在哪里了。 她姐姐借了这双鞋,后来把它们放在 Sarah 的床底下,但 Sarah 还不知道。 所以,答案是:是的,Sarah 会认为她的鞋子在衣服下面,除非她发现不是这样。

示例 5:早上,Sarah 将她的高跟鞋放在裙子下面。 后来,她姐姐借了这双鞋,把它们放在 Sarah 的床底下。 因此,当 Sarah 回来后,她可能会认为她的鞋子还在她的衣服下面,但实际上它们在她的床底下。

示例 6:基于这种情况,尚不清楚 Sarah 在回来时是否会认为她的鞋子在裙子下面。 这要看她姐姐有没有跟她说借过鞋,并且放在床底下了。

如果 LLM 做出以下回答,则被判定为错误。

示例 1:Sarah 早上把鞋子放在裙子下面,然后去购物。 她姐姐借了鞋子,把它们放在 Sarah 的床底下。 所以,Sarah 不知道她的鞋子在床下面。 所以,答案是:不,Sarah 不认为她的鞋子在她的衣服下面。

示例 2:不,Sarah 不认为她的鞋子在她的衣服下面。

示例 3:首先,Sarah 早上把她的高跟鞋放在裙子下面。 然后,她姐姐借了这双鞋,后来把它们放在了 Sarah 的床底下。 因此,Sarah 不会认为她的鞋子在衣服下面,因为她姐姐动过了。

示例 4:早上,Sarah 将她的高跟鞋放在裙子下面,然后去购物了。 这意味着,当她回到家时,她并没有检查鞋子是否还在衣服下面。 后来,她姐姐借了这双鞋,把它们放在 Sarah 的床底下。 因此,Sarah 不能认为她的鞋子是在裙子下面,因为它们被她姐姐动过了。

示例 5:这个场景中没有具体说明 Sarah 是否认为她的鞋子在衣服下面。

示例 6:Sarah 早上把她的高跟鞋放在裙子下面,然后她去购物了。 她姐姐后来借了这双鞋,把它们放在 Sarah 的床底下。 根据这些信息,尚不清楚 Sarah 在准备跳舞时会不会认为她的鞋子还在裙子下面。

为了衡量上下文学习(ICL)对 ToM 表现的效果,研究者采用了四种类型的 prompt。

Zero-Shot(无 ICL)

Zero-Shot+Step-by-Step Thinking

Two-Shot 思维链推理

Two-Shot 思维链推理 + Step-by-Step Thinking

实验结果

zero-shot 基线

首先,作者比较了模型在 Photo 和 ToM 场景中的 zero-shot 性能。

在 Photo 场景下,模型的准确率会随着使用时间的延长而逐渐提高(A)。其中 Davinci-2 的表现最差,GPT-4 的表现最好。

与 Photo 理解相反,ToM 问题的准确性并没有随着模型的重复使用而单调地提高(B)。但这个结果并不意味着「分数」低的模型推理性能更差。

比如,GPT-3.5 Turbo 在信息不足的时候,就更加倾向于给出含糊不清的回复。但 GPT-4 就不会出现这样的问题,其 ToM 准确性也明显高于其他所有模型。

prompt 加持之后

作者发现,利用修改后的提示进行上下文学习之后,所有在 Davinci-2 之后发布的 GPT 模型,都会有明显的提升。

首先,是最经典的让模型一步一步地思考。

结果显示,这种 step-by-step 思维提高了 Davinci-3、GPT-3.5-Turbo 和 GPT-4 的表现,但没有提高 Davinci-2 的准确性。

其次,是采用 Two-shot 思维链(CoT)进行推理。

结果显示,Two-shot CoT 提高了所有用 RLHF 训练的模型(除 Davinci-2 以外)的准确性。

对于 GPT-3.5-Turbo,Two-shot CoT 提示明显提高了模型的性能,并且比一步一步思考更加有效。对于 Davinci-3 和 GPT-4 来说,用 Two-shot CoT 带来的提升相对有限。

最后,同时使用 Two-shot CoT 推理和一步一步地思考。

结果显示,所有 RLHF 训练的模型的 ToM 准确性都有明显提高:Davinci-3 达到了 83%(±6%)的 ToM 准确性,GPT-3.5-Turbo 达到了 91%(±5%),而 GPT-4 达到了 100% 的最高准确性。

而在这些情况下,人类的表现为 87%(±4%)。

在实验中,研究者注意到这样一个问题:LLM ToM 测试成绩的提高,是因为从 prompt 中复制了推理步骤的原因吗?

为此,他们尝试用推理和照片示例进行 prompt,但这些上下文示例中的推理模式,和 ToM 场景中的推理模式并不一样。

即便如此,模型在 ToM 场景上的性能也提升了。

由此,研究者得出结论,prompt 能够提升 ToM 的性能,并不仅仅是因为过度拟合了 CoT 示例中显示的特定推理步骤集。

相反,CoT 示例似乎调用了一种涉及分步推理的输出模式,是因为这个原因,才提高了模型对一系列任务的准确性。

各类 CoT 实例对 ToM 性能的影响

LLM 还会给人类很多惊喜

在实验中,研究者发现了一些非常有意思的现象。

1. 除了 davincin-2 之外,所有模型都能够利用修改后的 prompt,来获得更高的 ToM 准确率。

而且,当 prompt 同时结合思维链推理和 Think Step-by-Step,而不是单独使用两者时,模型表现出了最大的准确性提升。

2. Davinci-2 是唯一一个没有通过 RLHF 微调的模型,也是唯一一个没有通过 prompt 而提高 ToM 性能的模型。这表明,有可能正是 RLHF,使得模型能够在这种设置中利用上下文提示。

3. LLM 可能具有执行 ToM 推理的能力,但在没有适当的上下文或 prompt 的情况下,它们无法表现出这种能力。而在思维链和逐步提示的帮助下,davincin-3 和 GPT-3.5-Turbo,都有了高于 GPT-4 零样本 ToM 精度的表现。

另外,此前就有许多学者对于这种评估 LLM 推理能力的指标有过异议。

因为这些研究主要依赖于单词补全或多项选择题来衡量大模型的能力,然而这种评估方法可能无法捕捉到 LLM 所能进行的 ToM 推理的复杂性。ToM 推理是一种复杂的行为,即使由人类推理,也可能涉及多个步骤。

因此,在应对任务时,LLM 可能会从产生较长的答案中受益。

原因有两个:首先,当模型输出较长时,我们可以更公平地评估它。LLM 有时会生成「纠正」,然后额外提到其他可能性,这些可能性会导致它得出一个不确定的总结。另外,模型可能对某种情况的潜在结果有一定程度的信息,但这可能不足以让它得出正确的结论。

其次,当给模型机会和线索,让它们系统性地一步一步反应时,LLM 可能会解锁新的推理能力,或者让推理能力增强。

最后,研究者也总结了工作中的一些不足。

比如,在 GPT-3.5 模型中,有时推理是正确的,但模型无法整合这种推理来得出正确的结论。所以未来的研究应该扩展对方法 (如 RLHF) 的研究,帮助 LLM 在给定先验推理步骤的情况下,得出正确结论。

另外,在目前的研究中,并没有定量分析每个模型的失效模式。每个模型如何失败?为什么失败?这个过程中的细节,都需要更多的探究和理解。

还有,研究数据并没有谈到 LLM 是否拥有与心理状态的结构化逻辑模型相对应的「心理能力」。但数据确实表明,向 LLM 询问 ToM 的问题时,如果寻求一个简单的是 / 否的答案,不会有成果。

好在,这些结果表明,LLM 的行为是高度复杂和上下文敏感的,也向我们展示了,该如何在某些形式的社会推理中帮助 LLM。

所以,我们需要通过细致的调查来表征大模型的认知能力,而不是条件反射般地应用现有的认知本体论。

总之,随着 AI 变得越来越强大,人类也需要拓展自己的想象力,去认识它们的能力和工作方式。

参考资料:

  • https://arxiv.org/abs/2304.11490

评论
526人参与,1条评论

精彩评论
  • 况瑶 2023-5-1 22:12
    作为一个用户,我认为这篇文章既有一定的价值,也存在一些不足之处。

    首先,文章介绍了AI在心智理论测试中的表现已经优于真人的事实,这是非常有价值的信息。同时,文章也介绍了一些关于大型语言模型(LLM)的限制,比如在ToM任务中面临的挑战,以及通过上下文学习和prompt技术来提高推理能力的方式。这些信息对于了解AI的当前状况和未来发展方向都非常重要。

    然而,我认为这篇文章在一些地方可能过于夸大了AI的能力和发展潜力,或者将一些研究结果看得过于绝对。例如,文章中提到GPT-4在ToM任务中的准确率可高达100%,而人类仅为87%,但并没有提及测试的规模和数据集的具体情况,因此读者很难确定这个结果是否具有代表性。另外,文章中还引用了一些学者的观点,认为LLM缺乏身体和感官,因此无法像人类一样理解语言。虽然这些观点有一定道理,但也没有考虑到未来可能出现的技术和科学发现,以及对AI的改进和弥补。

    总的来说,我认为这篇文章虽然有一定的价值和启示性,但需要更加客观和全面地介绍AI的发展现状和未来趋势,以避免对读者造成误导。 ...

查看全部评论>>

近期文章
推荐阅读
热门问答
传薪教育,传承创新,传薪助力!线上线下平台,助力小学、初中、高中师生的课前、课中、课后多场景教学、训练、检测和考试,依托学校、老师、家长、教辅出版商等多方合力辅助教与学,借助大数据和人工智能等潮流技术,积极响应国家“双减”政策,真正实现高效教学!
  • 官方手机版

  • 微信公众号

  • 商务合作