Mistral Large、lumikabra和Behemoth是我进行创意写作时常用的模型,所以我创建了一个合并模型softwareweaver/Twilight - Large - 123B。https://huggingface.co/softwareweaver/Twilight - Large - 123B。社区标签中有一些示例生成内容,请在社区标签中添加你自己的生成内容,这可以让其他人在下载模型之前评估模型的输出。如果你正在使用Llama.cpp,可以对这个模型使用Mistral Large的控制向量。
讨论总结
这个讨论围绕新创作写作模型Twilight - Large - 123B展开。涉及模型的使用方式、创作中遇到的问题、模型测试的条件限制,还有模型本身的一些特性如上下文限制等方面,大家积极交流信息,氛围较为积极探索。
主要观点
- 👍 提供控制向量更多信息来源
- 支持理由:有助于使用者深入了解控制向量对模型的作用。
- 反对声音:无。
- 🔥 创作故事时生成内容存在积极偏差和情节直白问题
- 正方观点:以实例说明创作中遇到的问题。
- 反方观点:无。
- 💡 可通过详细描述人物来改善故事创作中的人物行为
- 解释:通过这种方式让人物行为更符合现实。
- 💡 可以分部分告知情节让创作模型进行创作
- 解释:减轻创作工作量。
- 💡 网络连接限制了模型的尝试,需特定量化版本才会尝试
- 解释:网络不佳时只能在特定条件下测试模型。
金句与有趣评论
- “😂 控制向量允许对LLMs进行微调控制,实现更精确/有针对性的文本生成。”
- 亮点:简洁概括控制向量对大型语言模型的重要作用。
- “🤔 我发现写更详细的人物描述有助于使人物行为更符合现实。”
- 亮点:给出改善创作中人物行为问题的实用方法。
- “👀 Lissanro:If 5bpw EXL2 quant appears, I will definitely give it a try (my Internet connection is too limited to easily download the original model to create my own quant).”
- 亮点:表达对模型的兴趣及受网络限制的无奈。
情感分析
总体情感倾向积极。主要分歧点较少,大家更多是在分享信息和提问。可能是因为这是一个新模型发布,大家处于探索了解阶段,更多关注模型的功能和使用方式。
趋势与预测
- 新兴话题:关于EXL2 quant的进一步探索和使用。
- 潜在影响:如果模型在故事创作方面的问题得到解决,可能会影响创作领域,提高创作效率和质量。
详细内容:
标题:新型创意写作模型 Twilight-Large-123B 在 Reddit 引发热烈讨论
Reddit 上出现了一个关于新型创意写作模型 Twilight-Large-123B 的帖子,迅速引起了众多用户的关注。该帖子介绍了作者创建的这一合并模型,并提供了相关链接https://huggingface.co/softwareweaver/Twilight-Large-123B,同时提到了社区标签中的一些示例生成。此帖获得了大量的点赞和众多评论,引发了关于该模型的各种讨论。
讨论焦点与观点分析: 有人指出可以将 Control Vectors 用于 Mistral Large,并提供了相关链接[https://huggingface.co/jukofyork/creative-writing-control-vectors-v3.0/tree/main/Mistral-Large-Instruct-2407],称其能够实现对大型语言模型更精细的控制,从而生成更精准和有针对性的文本。
有用户表示对模型生成中反派角色行为的合理性存在疑问,比如在现代版夏洛克·福尔摩斯的生成中,反派面对指控立刻认罪且不做任何反抗,希望能有更现实的行为和更多的情节转折。
有人询问能否用 Control Vectors 引导语言模型的语法,比如避免写复杂句子。
也有用户表示对该模型充满期待并准备测试,还分享了关于模型量化和运行的相关指导和经验。
还有人询问该模型的可用上下文限制,作者回复官方限制为 130K,但未测量确切的可用上限。
总体而言,用户们对这一新型创意写作模型表现出了浓厚的兴趣,围绕其功能、应用和效果展开了深入的探讨,既期待其带来的创新,也对可能存在的问题提出了思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!