它甚至几乎做不到
讨论总结
原帖询问为什么大型语言模型(LLMs)似乎不擅长幽默,评论者们从各种角度进行了讨论。一些人分享了与不同LLMs互动中的幽默体验,有正面也有负面。主要话题包括LLMs幽默表现不佳的原因,如工作原理与幽默的相悖、缺乏特定情境、训练数据问题等,也有人提出不同观点,认为部分LLMs在幽默方面表现不错,还有人探讨了幽默的本质以及LLMs未来在幽默创作上的改进可能性,整个讨论理性且深入。
主要观点
- 👍 LLMs不擅长幽默可能与幽默的“意外性”特质有关
- 支持理由:LLMs建立在重复选择最可能的下一个标记的原则上,难以制造意外。
- 反对声音:无。
- 🔥 幽默需要深刻理解语言和人类文化、受众和时机等多方面因素,所以LLMs难以擅长
- 正方观点:幽默创作需要多方面考量,LLMs目前还难以达到。
- 反方观点:部分LLMs经过特定引导或在特定情况下也能表现出幽默元素。
- 💡 LLMs是否擅长幽默取决于提示内容
- 解释:不同的提示可以让LLMs产生不同的结果,合适的提示可能得到有趣的内容。
- 💡 不同模型对同一任务的表现可能不同,可能与训练数据有关
- 解释:如ChatGPT之前能创作包含合理双关语的短剧脚本,而Llama 3 8B Instruct q4_0模型生成的脚本笑点不足。
- 💡 认为LLMs不擅长幽默是因为幽默需要冒冒犯他人的风险,但这一观点被反驳
- 解释:有用户指出未审查的LLMs(甚至会说出冒犯性词汇)也并没有更幽默。
金句与有趣评论
- “😂 Before ChatGPT got more blah, I asked it to script a skit with Miley Cyrus explaining eye surgery (long story here) and it came up with the pun "Party in the Uvea" which makes sense and as far as I know appears nowhere on the internet.”
- 亮点:用ChatGPT创作的包含双关语的短剧脚本示例,展示ChatGPT曾经在幽默创作上有一定能力。
- “🤔 Humor requires a deep understanding of language and human culture. It requires an understanding of your audience, and the moment of delivery. A god joke needs to use wordplay and clever constructions and balance all that together with some sort of punchline that subverts expectations, there’s a lot that goes into it.”
- 亮点:详细阐述了幽默创作所需的复杂因素,解释LLMs难以擅长幽默的可能原因。
- “👀 Jokes (like music) require some subversion of expectations, which is exactly the opposite of how an LLM works.”
- 亮点:从LLM工作原理与幽默创作需求相悖的角度,简洁地指出LLMs不擅长幽默的原因。
- “😂 Asked Claude to write a Seinfeld scene and it actually managed to make me laugh”
- 亮点:提供Claude能创作有趣内容的实例,反驳LLMs完全不擅长幽默的观点。
- “🤔 delivery and context is much more important than the content.”
- 亮点:强调表演和语境在幽默中的重要性,从新的角度看待LLMs不擅长幽默的现象。
情感分析
总体情感倾向较为理性和客观。主要分歧点在于LLMs是否擅长幽默以及原因。部分人认为LLMs确实不擅长幽默,原因包括其工作原理、缺乏情感、训练数据等;而另一些人则认为LLMs在特定情况下或经过调整后可以表现出幽默,可能是因为不同的模型、合适的提示或者特殊的设定等。这种分歧的可能原因是大家对LLMs的能力、幽默的本质以及两者之间的关系有不同的理解和期待。
趋势与预测
- 新兴话题:通过特定笑话资源对LLMs进行优化来改善其幽默能力,如对模型进行基于喜爱的笑话的微调。
- 潜在影响:如果能够提升LLMs的幽默能力,可能会使其在更多领域得到应用,如内容创作、娱乐产业等,也可能改变人们对LLMs智能性的看法,进一步推动人工智能与人类社会的融合。
详细内容:
《探究 LLMs 在幽默领域的表现:是力不从心还是潜力待掘?》
在 Reddit 上,一篇题为“ Why don’t LLMs seem good at humor? Like, at all? Do you have any experiences with good LLM jokes?”的帖子引发了热烈讨论。该帖子获得了众多关注,评论数众多,主要探讨了大型语言模型(LLMs)在幽默生成方面的能力。
讨论焦点主要集中在 LLMs 能否真正创造出令人捧腹的幽默,以及其在幽默表现上的各种观点和经历。有人提到 ChatGPT 曾给出过有趣的回复,比如创作了以 Miley Cyrus 解释眼部手术为主题的小品脚本,其中包含了独特的双关语“Party in the Uvea”。但也有人认为,让 LLMs 直接生成笑话往往效果不佳,比如要求 Jar Jar Binks 向 Boba Fett 解释眼部手术的脚本,就没有带来新的笑点。
有人指出,LLMs 就像人类在沙盒中一样,要做到幽默十分困难。幽默需要对语言和人类文化有深刻理解,包括对受众和表达时机的把握,而这并非 LLMs 擅长的。例如,一位有着 18 年脱口秀经验的人表示,写一个真正有趣的笑话需要进行很多巧妙构思和平衡,这是 LLMs 目前难以做到的。
不过,也有不同的声音。有人分享使用 Sonnet 时通过恰当的引导产生了有趣的结果;还有人提到 Claude 在某些情况下表现出色,能创作出令人发笑的内容。
同时,对于幽默的本质和 LLMs 与幽默的关系,大家也有深入思考。有人认为幽默是一种高级的智力形式,因为它需要多种复杂元素的融合;但也有人觉得像建造摩天大楼或解决谜题可能比创造基本的笑话更具难度。
总之,关于 LLMs 在幽默方面的表现,Reddit 上的讨论呈现出多样性和复杂性。一方面,多数人认为 LLMs 在幽默生成上还有很大的提升空间;另一方面,也有人对其未来的发展持有乐观态度,相信通过不断的改进和优化,LLMs 或许能够在幽默领域有所突破。但无论如何,目前对于 LLMs 能否真正理解和创造幽默,仍存在诸多争议和探讨的空间。
感谢您的耐心阅读!来选个表情,或者留个评论吧!