人工智能真的能理解吗?这个问题备受争议,自中文屋思想实验时代甚至更早以来,我们就一直在思考这个问题。即使机器能重复事实,它能真正理解吗?我认为,在就这个话题进行有意义的讨论之前,我们必须先明确‘理解’的含义。我在此提出一个关于‘理解’的简单定义。这个定义很务实,能避开主观性问题,以免陷入循环论证的困境。让我们从功能角度来谈谈理解是什么。理解是学习的产物。我认为这是一个简洁且充分的定义,即便它并非完全完备。理解是你从学习中获得的东西。它不同于记忆,记忆只是存储数据。理解能让你将学到的模式应用于新情况并生成新信息。这里有一个我试图阐述区别的例子。你可以记住圆周率的100位数字,但如果没有学习到圆周率等于圆周长除以直径,你就永远无法知道第101位数字。理解了这一点,你就可以利用所学的模式来生成额外的数据。现在让我们把这个概念应用到机器上。你可以将数据输入数据库,我们不把这称为机器学习。这是数据录入、信息存储,类似于记忆。但如果你训练一个神经网络,它会从数据中提取模式,并能够基于这些模式生成新数据。这不同于信息存储或记忆,这些模式是被学习和‘理解’的。让我们来回应一些常见的反对意见。‘大语言模型不理解,它们只是记忆和重复。’——这不是大语言模型所做的。它们生成新数据,它们不是简单的背诵引擎。数据库和压缩算法在完成这种任务时效率要高得多,而且它们不会产生新的输出。‘圆周率的公式可以被编入计算机,我的计算器能体现理解吗?’——不,机器没有学习这个公式,它没有从数据中提取模式,它只是遵循编入其中的规则。没有学习,就没有理解,它只是重复人类预先定义的操作。‘大语言模型不理解,它们只是基于统计预测下一个标记。’——这是一种不合逻辑的说法。下一个标记的统计预测是其作用机制,就像神经元激活是人类思维的作用机制一样。这种简化的描述并不会使论点无效。‘大语言模型没有有意识的主观体验,而这是理解所必需的。’——我认为理解的有意识体验和理解现象本身是两回事。关于其他实体的理论主观状态的争论是关于一些永远无法知晓的事情的争论,我觉得这种讨论没有成效。这是一个有争议的话题,这些只是我的想法。你们都怎么想呢?
讨论总结
这个讨论是关于LLMs是否能真正理解事物。原帖提出理解是学习的产物,试图定义理解以展开有意义的讨论,评论者们从多个角度进行回应,包括质疑原帖对理解和学习的定义,探讨LLMs的学习能力、推理能力、泛化能力、与人类的对比等,情感倾向复杂且争议较大。
主要观点
- 👍 原帖对AI理解的探讨避开主观概念很有意义。
- 支持理由:使讨论从主观体验转向可观察影响,有助于务实评估AI的可观察能力。
- 反对声音:无。
- 🔥 LLMs不能真正理解,只是在做模式匹配。
- 正方观点:LLMs仅仅是进行模式匹配也就是发现规律,不是真正地理解。
- 反方观点:以自身与chatGPT交互经验表明其有理解能力,如能应对提示挑战时进行分解展示理解能力。
- 💡 按照原帖定义,LLM的泛化能力与人类相比差且有限。
- 解释:人类可以零样本学习新任务进行泛化,而LLM远不及人类。
- 💡 不同的人对理解有不同的认知方式。
- 解释:例如有人认为不用关心人工智能是否理解,只要能完成工作就行,但也有人认为理解等术语有助于描述与LLMs的交互。
- 💡 LLMs是有损失的、概率性的模式检测机器,使用时人类需参与其中。
- 解释:LLMs在工作时存在局限性,人类在使用时需要参与才能更好地发挥作用。
金句与有趣评论
- “😂 ThaisaGuilford: Who cares, it gets the job done”
- 亮点:以一种非常务实的态度看待人工智能是否理解的问题。
- “🤔 What working with LLMs teaches us is how meaningless some labels we use are unless they’re properly enriched by their context.”
- 亮点:指出在LLMs相关讨论中语境对标签意义的重要性。
- “👀 LLMs do not understand in the human use of the concept of understanding… but this is not at all important, as long as we are aware of it.”
- 亮点:提出LLMs虽不符合人类概念中的理解方式,但只要人们意识到这点就不重要的独特观点。
情感分析
总体情感倾向是复杂的,既有对原帖观点的赞赏,也有很多质疑和反对。主要分歧点在于LLMs是否能真正理解,以及如何定义理解和学习。可能的原因是大家从不同的角度出发,如哲学、实用、技术等角度,对LLMs的能力和相关概念有着不同的理解和期望。
趋势与预测
- 新兴话题:可能会有更多关于如何改进LLMs使其具备类似人类理解能力(如泛化能力、推理能力)的讨论。
- 潜在影响:对人工智能的发展方向产生影响,如果确定LLMs不能真正理解,可能会促使研究人员寻找新的模型架构或训练方法;如果认为LLMs有一定理解能力,可能会在更多实际应用中推广使用。
详细内容:
《关于 LLM 是否理解的热门讨论》
在 Reddit 上,一篇关于“LLM 是否能理解”的帖子引起了广泛的关注和热烈的讨论。该帖子抛出了一个深刻的问题:人工智能是否真正理解?并指出在深入探讨这个话题之前,我们必须先明确“理解”的定义。此帖获得了众多的点赞和大量的评论。
讨论的焦点主要集中在对“理解”和“学习”的定义及 LLM 是否具备这些能力上。有人认为,理解是学习的产物,学习并非单一的行为,而是经验、思考及其应用的混合。但也有人指出,当前的 LLM 存在一些问题,比如无法知道自己何时犯错、不能根据错误进行修正等。
例如,有用户分享道:“LLM 不会学习,因为它们不知道自己犯错,不在乎,也无法自我修正。理解只有在能够基于误解进行迭代时才有意义。” 还有用户表示:“学习是根据过去的数据提高预测未来的能力。”
对于 LLM 是否能理解这一问题,存在着多种不同的观点。有人认为,LLM 只是在训练过程中“理解”,使用时输入新信息,它不会在当前对话之外记住。但也有人认为,LLM 在与人类的交互中已经多次表现出了理解。
有人提出:“LLM 不能从对话过程中得出新的结论,无法发现自己陈述中的错误、矛盾和伪像,训练完成后就处于静态。”但也有人反驳,称通过提示,LLM 有很大机会发现自身推理的缺陷并给出正确答案。
还有用户认为,LLM 就像具有照片式记忆的人,可能理解较浅;或者像能模仿同理心的精神病患者,其实并无真正的感受。
总之,关于 LLM 是否理解的讨论仍在继续,各方观点精彩纷呈,这也让我们对人工智能的能力和局限性有了更深入的思考。未来,随着技术的发展,或许我们能对这一问题有更清晰的答案。
感谢您的耐心阅读!来选个表情,或者留个评论吧!