大型语言模型(LLMs)本质上是预测语言内部关系的工具。但语言本身可以反映现实世界。思考一下人类最初发明语言的原因:描述我们的世界并促进交流。LLMs在人类创造的低维空间中运行,但它们仍然与现实相互作用——虽然不完美,但确实存在相互作用。其缺点呢?LLMs依赖概率,这使得它们难以进行逻辑证明。它们生成最有可能的输出。它们从哪里了解这些概率呢?互联网。想想互联网上的所有垃圾信息——没有人能100%识别虚假真相或假新闻。这不是LLMs独有的缺陷;这就是它们的工作方式。其优点呢?这种基于概率的方法对许多任务非常实用。在客服、驾驶或洗碗等事务中不需要进行严格的计算。人类依赖经验,人工智能也可以。对我来说,将LLMs视为通用人工智能(AGI)或者将它们视为一无是处都是同样错误的。这两种观点都夸大其词并且浪费人们的时间。
讨论总结
原帖认为LLMs基于概率工作,这一特性使其既有优点也有缺点,将其视为通用人工智能(AGI)或者一无是处都是错误的。评论者从不同角度进行了讨论,包括LLMs的数据质量(并非全是垃圾数据,还有公司会筛选数据)、功能用途(是一种工具,很多人未正确使用)、与人类对比(在标准化测试中表现比多数人类好,但不是通往AGI的道路)、思维方式(不同思维方式对处理LLMs问题有不同影响)等,整体氛围较为理性,大家各抒己见。
主要观点
- 👍 LLMs不是奇点,比较“笨”,但很多是用高质量数据训练的
- 支持理由:部分LLMs有高质量数据来源,并非只依赖互联网垃圾数据。
- 反对声音:无。
- 🔥 LLMs可用于处理糟糕的转录本并可通过补充文档提高理解转录本的概率
- 正方观点:评论者分享自身使用本地LLMs处理转录本的经验,补充文档有助于提高概率理解内容。
- 反方观点:无。
- 💡 以偶尔失败来否定LLMs能力不合理,LLMs在标准化测试中的表现比大多数人类好
- 解释:人类也会偶尔失败,不能因此否定LLMs,且LLMs在标准化测试中的表现可证明其能力。
- 💡 对原帖内容多数表示认同,认为语言的自含性使得LLMs虽无法感知外界来验证知识,但可能没那么严重
- 解释:每个词由其他词定义,LLMs标记映射意义的方式类似,很多抽象概念无客观参照,所以其虽无法验证知识但影响不大。
- 💡 多模态模型(包含图像、音频、视频等)有助于提升学习能力
- 解释:将不同模态统一起来能让模型在学习方面显著提升。
金句与有趣评论
- “😂 Fatal_Conceit: This is local lama not singularity, we all know how dumb they are.”
- 亮点:直白地表达LLMs不是奇点且比较“笨”,简洁地阐述观点。
- “🤔 我发现人们经常通过指出LLMs由于有时会失败而不具备人类水平的表现来批评LLMs的能力,这很奇怪,毕竟偶尔失败实际上是人类的典型特征。”
- 亮点:从人类的特性角度出发,对人们批评LLMs能力的方式提出质疑。
- “👀 当你思考时,每个词最终都由其他词来定义。”
- 亮点:阐述了对语言自含性的思考,为理解LLMs的特性提供了一种思路。
- “🤔 我不确定纯基于语言学习的绝对限制是什么,但我不会自信地说它们在没有客观性的情况下不能“理解”或进行“逻辑思考”。”
- 亮点:对LLMs能否在无客观性下进行理解和逻辑思考提出疑问,具有一定的深度。
- “😂 I like using local llms for shitty transcripts.”
- 亮点:分享了使用本地LLMs处理糟糕转录本的有趣经历。
情感分析
总体情感倾向较为理性客观。主要分歧点在于对LLMs能力的评价,部分人认为LLMs能力被低估,如在处理实际问题(编程、开发工作等)中有很大作用,且新的LLMs能力强大可靠;而部分人觉得LLMs比较“笨”。可能的原因是大家从不同的使用场景、对LLMs工作原理的理解以及对其未来发展的预期等角度出发,从而产生不同的看法。
趋势与预测
- 新兴话题:多模态模型对LLMs学习能力的提升以及LLMs在不同领域(如VR复兴)的潜在推动作用可能引发后续讨论。
- 潜在影响:如果人们能正确认识LLMs的能力和局限性,可能会在更多实际应用场景中合理使用LLMs,提高工作效率;同时也有助于引导市场对LLMs的正确炒作,避免过度或低估的现象。
详细内容:
标题:Reddit 热议:LLMs 被低估与过度炒作的双重争议
最近,Reddit 上一篇题为“Why LLMs Are Both Underestimated and Overhyped”的帖子引发了广泛关注。该帖子获得了众多点赞和大量评论,主要探讨了大型语言模型(LLMs)的优势、局限以及其在现实应用中的表现。
讨论焦点主要集中在以下几个方面: 有人认为 LLMs 并非奇点般的存在,很多是基于高质量数据训练的。但也有人指出,尽管 LLMs 在某些方面表现出色,但其概率性的工作方式存在逻辑证明上的困难,且容易受到网络垃圾信息的影响。 例如,有用户分享道:“作为一名在相关领域探索了十年的从业者,我发现 LLMs 就像训练身体力量一样,需要遵循语言的规则和逻辑,能解决很多新问题,但仍需评估和理解。”
关于 LLMs 的未来,观点各异。有人担心当前的经济模式会受到冲击,认为在某些方面独裁国家可能更具优势。但也有人认为 AGI 还很遥远,更多的令牌处理方式未必能带来 AGI。 比如,有用户提到:“我认为我们当前的经济将会受到影响(后劳动经济),你所在的国家将决定你的未来。而且,独裁国家在这方面可能会比民主国家效率高一百万倍,所以我相信中国在这方面会领先。但谁知道呢,同样的 AGI 也许能够解决它所造成的所有这些问题。”
也有用户认为 LLMs 只是一种工具,比如有人表示自己在处理糟糕的转录时喜欢使用本地 LLMs,通过补充适当的信息能使其更容易解析。
同时,有人质疑多模态模型是否能真正带来显著提升,认为这需要更多证据。而另一些人则坚信基于 Transformer 架构的模型强大且灵活,有能力产生和检索新知识。
还有用户指出,公司在使用网络数据进行训练时有筛选过程,能过滤掉不良内容。但也有人反驳称这导致了模型在创意写作方面表现变差。
有人觉得人们批评 LLMs 有时表现不佳是不合理的,因为人类也会犯错,且 LLMs 在标准化测试中表现远超多数人类。但也有人认为 LLMs 并非通向 AGI 的路径。
一些用户分享了自己的个人经历和案例,比如在开发工作中,LLMs 尽管会提供无用信息和垃圾代码,但有时能帮助解决难题,节省大量时间,甚至让人不再轻易放弃。
在这场讨论中,既有认为 LLMs 被低估的声音,也有认为其被过度炒作的观点,而如何客观全面地看待 LLMs 的价值和潜力,仍是大家争论的核心。
感谢您的耐心阅读!来选个表情,或者留个评论吧!