GPT-3类比思维在自然环境下的应用超越大学生的科技改变生活作文能力

在美国心理学家的一项测试中,GPT-3语言模型展现出了其类比思维的强大能力,这一能力通常被用来评估人类智力的发展。该模型在Raven标准渐进矩阵适应性测试中取得了意外的成绩,其得分超过了大学高年级学生。

这项研究是对人工智能极限和人类思维理解方法的一种探索。科学家们正在通过将GPT-3置于各种新的、未曾遇到过的情况下进行类比推理的挑战,来考察其解决问题的能力。这一机制,被称为类比推理,是指“推理”作为一种独立于语言表达之外的心智活动,而不仅仅是一种文字描述。

为了验证这一点,加州大学洛杉矶分校(UCLA)的研究人员设计了一系列基于文本的人工智能任务,其中包括从九个元素构成的一个系列图像中找出缺失单元,并选择正确答案。此任务依赖于观察前两行规则并将其应用到第三行上,以此解决问题。

尽管GPT-3不是多模态模型,只能处理文本,但它仍然能够通过调整后的矩阵完成任务。在与大学生的对照组相比较后,结果显示GPT-3提供了80%以上的正确答案,这远超60%左右的正常水平。不过,该算法也犯下与人类相同错误,这表明决策过程可能非常相似。

除了Raven矩阵,还有来自美国标准化入学考试(SAT)的算法任务被给予该模型。在这些问题中,例如,“仇恨”的“财富”与这个词同义吗?(正确答案是“贫穷”),算法必须找到反义词而无需直接指示。

正如预期,GPT-3在更复杂的问题上表现出色,比如需要跨越整个句子或段落之间进行类比。但对于空间思维任务,如将软糖从一个碗转移到另一个碗最好的方法,它却无法提供任何有意义的回应。

这项研究提出了一个新层次的问题:是否存在一种全新的思维方式,与我们所知的人类意识截然不同。这一点引发了哲学上的讨论,如著名概念“车里的幽灵”,即复杂的人工系统可以获得不可预见特性的新特性,使它们看起来几乎不区别于人类意识。

然而,该研究也有两个重大局限性。首先,即使努力确保训练数据涵盖广泛情况,但不能保证GPT-3已经遇到了类似这些类型的问题。其次,由于无法进入模型内部,“思考”过程是一个黑箱子,对神经科学发展造成限制。这份预印本文章已发表在《自然人类行为》杂志上,可以免费获取。

标签: 白家电