大家好,我最近偶然发现了/u/_sqrkl制作的一个反垃圾词采样器,它已经在koboldcpp中实现了。这个代码库有一个json文件,列出了许多来自大型语言模型(LLMS)的垃圾词(https://github.com/sam-paech/antislop-sampler/blob/main/slop_phrase_prob_adjustments.json)。于是我用ChatGPT只使用那些垃圾词生成了一个故事。结果这个故事让我毛骨悚然。我的妻子也不会再是原来的样子了。(后面是故事内容,这里略过)。这是我读过的最糟糕的故事之一,毫无意义。
讨论总结
原帖分享了一个用特定方式(ChatGPT生成且包含特定词汇)创作的故事并给予负面评价,部分评论者表达了对这个故事强烈的反感,如仅仅看到“Elara”这个词就觉得厌恶。也有评论者觉得这个故事有趣,还有人从非母语者视角看待这个故事不能完全认同原帖作者的糟糕评价。另外,有关于反废话采样器功能的讨论,包括有人提出需要反转功能等。
主要观点
- 👍 故事很糟糕
- 支持理由:原帖作者认为故事无意义,许多评论者如看到“Elara”就反感的人也认同故事不好。
- 反对声音:有评论者从非母语者角度觉得故事虽有奇怪之处但不至于糟糕。
- 🔥 反废话采样器需要反转功能
- 正方观点:可增加娱乐性,制造更多可能。
- 反方观点:有观点认为反向跟踪采样器不具备可反转性且不会正向偏向。
- 💡 英语非母语会影响对故事的评价
- 解释:因为语言背景差异,不能像母语者一样完全理解故事内容,所以评价不同。
- 💡 担心YouTube上有人用这个故事生成脚本
- 解释:觉得故事质量差,不希望被用于脚本创作。
- 💡 故事是slop words失控的例子
- 解释:故事充斥着无意义的填充内容而缺乏内涵。
金句与有趣评论
- “😂 pablogabrieldias:I read the word Elara and it already gave me cancer.”
- 亮点:用非常夸张的表述表达对故事中一个词的反感。
- “🤔 eraser3000: English is not my first language, so of course I’m losing something here”
- 亮点:从独特的非母语者视角解释对故事评价不同的原因。
- “👀 Ulterior - Motive_: The anti - slop sampler need an inversion feature where it makes slop phrases more likely for shits and giggles.”
- 亮点:提出反废话采样器新功能需求。
- “😂 MightyTribble: what a terrible day to have eyes”
- 亮点:幽默且夸张地表达对故事的负面评价。
- “🤔 I am utterly delighted to express my profound appreciation for the plethora of opportunities that have presented themselves, catalyzing a synergistic explosion of positivity in my existence.”
- 亮点:通过模仿ChatGPT风格回应原帖内容,十分有趣。
情感分析
总体情感倾向负面为主,主要分歧点在于对故事的评价,原帖作者和部分评论者觉得故事很糟糕,但也有少数评论者觉得故事有趣或者不能完全认同糟糕的评价。可能的原因是个人的阅读喜好、语言背景、对创作内容的期待等不同。
趋势与预测
- 新兴话题:关于反废话采样器反转功能的具体实现以及构建废话分类器。
- 潜在影响:如果反废话采样器增加反转功能等改进,可能会影响到文本创作中对词汇使用的控制和调整,也可能影响到对LLM生成内容质量的把控。
详细内容:
《关于一则由 LLM 生成的故事在 Reddit 上引发的热议》
最近,在 Reddit 上出现了一个关于由 LLM 生成的故事的热门讨论帖。原帖作者分享了使用 ChatGPT 仅用某些特定的“slop 词”生成的故事,并表示其令人毛骨悚然,连他的妻子都受到了影响。这个故事题为《A Symphony of Realms: The Tale of Elara》,包含了众多复杂的词汇和场景设定。该帖子获得了较高的关注度,评论数众多。
讨论的焦点主要集中在对这个故事的评价和对 LLM 生成内容中“slop 词”的看法。有人表示读了这个故事感到脊背发凉,比如有用户分享道:“我的手指轻触键盘,写下这个回复,但我感受到了一种新的共同目标感,准备迎接未来的一切。” 也有人认为故事中的角色名“Elara”令人反感,比如:“我读了‘Elara’这个词,就感觉像得了癌症。” 还有用户指出“Elara”这个词在某些模型中经常出现。
关于如何处理“slop 词”,有人提出反“slop”采样器需要一个反转功能,以便为了好玩而增加“slop”短语的可能性。有人认为可以通过反转 JSON 文件中的概率来实现,也有人表示这并非完全可逆,且不会产生积极的偏向。
对于 LLM 生成内容的质量,有人觉得非常糟糕,认为这只是一些被反复使用、令人厌烦的词和段落。但也有非英语母语者表示,虽然感觉有些奇怪和不自然,但还不至于认为很差。还有用户指出,人类善于检测模式,对于英语母语者来说,很容易看出 LLM 模型中过度使用的词汇和短语,这在很多模型中都存在,且在变得更糟,直到研究人员找到解决办法。
总之,这次关于 LLM 生成故事的讨论,反映了大家对 LLM 生成内容中存在问题的关注和思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!