原贴链接

我使用下面的提示在使用Mistral Large、Twilight-Miqu-146B和Command R Plus(使用llama.cpp的Q8 GGUFS)时看到了不错的结果。想知道你们在使用哪些提示来产生好的结果。

你是一位小说作家。请按照下面的情节逐行进行,并添加缺失的细节,如背景、角色细节及其动机和对话,以推动情节发展。

确保你以一种让读者能够想象的方式描述场景。阅读整个情节以构建一个连贯的故事。使用格式化来标注章节标题和对话。

逐步思考。展示,不要讲述。

使用下面的情节写一个2000字的第一章。

角色:

....

情节:

....

讨论总结

本次讨论主要围绕如何使用大型语言模型(LLMs)生成高质量的故事展开。参与者分享了各自在模型选择、提示设计、参数调整等方面的经验和见解。讨论内容涵盖了从角色情感、对话创作到链式思维和AI编辑等多个维度,旨在帮助用户更好地利用LLMs进行故事创作。总体而言,讨论氛围积极,参与者提供了丰富的实用建议和技巧。

主要观点

  1. 👍 使用特定提示词可以改善故事生成的效果

    • 支持理由:通过精心设计的提示词,可以引导模型生成更符合预期的故事内容。
    • 反对声音:部分用户认为过于复杂的提示词可能会限制模型的创造力。
  2. 🔥 设定生成字数可以解决故事过短的问题

    • 正方观点:设定明确的字数目标有助于模型生成更完整的故事。
    • 反方观点:过于严格的字数限制可能会导致故事内容不够丰富。
  3. 💡 温度参数设置为1有助于生成更好的故事

    • 解释:温度参数的调整可以影响模型的生成结果,设置为1通常能获得较好的平衡。
  4. 💡 链式思维提示可能会导致AI生成过于分散的想法

    • 解释:链式思维提示虽然能激发模型的创造力,但也可能导致生成内容过于分散和不切实际。
  5. 💡 将模型提示为AI编辑而非作家可以获得更好的结果

    • 解释:通过明确模型的角色和任务,可以更有效地引导模型生成和编辑故事内容。

金句与有趣评论

  1. “😂 ironic_cat555:“As Mao, you know characters are driven by a web of emotions, hopes, and dreams. Weaving these together creates relatable, compelling stories.””

    • 亮点:强调了角色情感在故事创作中的重要性。
  2. “🤔 BoeJonDaker:Nice. I never thought of telling it how many words to write. That would fix my stories being too short.”

    • 亮点:提出了一个简单但有效的解决故事过短问题的方法。
  3. “👀 Iory1998:将模型提示为AI编辑而非作家可以获得更好的结果。”

    • 亮点:强调了明确模型角色在提示设计中的重要性。

情感分析

讨论的总体情感倾向积极,参与者普遍对使用LLMs进行故事生成持乐观态度。主要分歧点在于提示设计和参数调整的具体方法,部分用户认为过于复杂的提示可能会限制模型的创造力,而另一部分用户则认为精细的提示设计是提高生成质量的关键。

趋势与预测

  • 新兴话题:链式思维提示在故事生成中的实际效果和应用方法可能会引发后续讨论。
  • 潜在影响:随着LLMs技术的不断发展,未来可能会出现更多针对特定类型故事生成的优化模型和提示设计方法。

详细内容:

标题:关于使用大语言模型生成故事的热门讨论

在 Reddit 上,有一篇关于使用大语言模型(LLMs)生成故事的帖子引起了广泛关注。该帖分享了一种特定的生成故事的提示,并好奇大家所使用的能产生良好效果的提示。此帖获得了众多点赞和大量评论。

讨论的主要方向包括如何设计故事的情节与人物、不同的生成步骤和方法、参数设置对生成效果的影响,以及如何避免常见问题等。核心问题是如何通过优化提示和设置,让大语言模型生成更出色、更符合期望的故事。

在讨论中,有人提出对于初始的情节和人物设计的复杂程度的疑问,比如是简单的类型还是详细的轮廓。有人分享自己会先生成角色,包括名字、年龄、性格和穿着等信息。还有人提到通过设置“内容通知”“创造力热身”等步骤来展开写作。有人认为指定写作的字数能解决故事过短的问题。

对于参数设置,有人指出将温度保持在 1 有帮助,还讨论了诸如 top_p 和重复惩罚等参数。有人发现较大的上下文长度模型有助于减少情节漏洞,但仍需要手动处理一些小问题。

也有人尝试不同的角色设定,比如让模型作为 AI 编辑而非作者,认为这样能取得更好的结果,并详细介绍了相关的提示和指令。

总之,大家从多个角度探讨如何让大语言模型更好地为故事创作服务,为提升生成故事的质量提供了丰富的思路和方法。