我不知道是否有专门用于此(成人故事讲述)的模型,但我想要一个我只需给它一些方向就能写出完整故事的模型。如果有关系的话,我主要对BDSM(绑缚与调教、支配与臣服、施虐与受虐相关内容)感兴趣。
讨论总结
原帖询问适合BDSM故事创作的NSFW模型,评论中大家纷纷推荐各种模型,如Mistral - MOE - 4X7B - Dark - MultiVerse - Uncensored - Enhanced32 - 24B - gguf、Midnight - Miqu - 70B - v1.5.Q6_K等,并且讨论了这些模型的运行速度、所需显存、内存等运行条件。还对某些模型是否无审查产生争议,同时也涉及到模型创作能力相关话题,如能否创作100页短篇小说、创作负面结局故事的困难等。
主要观点
- 👍 推荐Mistral - MOE - 4X7B - Dark - MultiVerse - Uncensored - Enhanced32 - 24B - gguf模型用于故事创作。
- 支持理由:评论者推荐。
- 反对声音:无。
- 🔥 8b模型写作能力不足。
- 正方观点:neutralpoliticsbot认为8b模型写作很基础。
- 反方观点:无。
- 💡 推荐32G模型的Q3或Q4。
- 支持理由:koflerdavid推荐称即使在较低的量化下也更有趣。
- 反对声音:无。
- 😎 在正常使用时很少遇到审查问题。
- 解释:评论者提到如果不是故意编写会触发审查的提示词,基本不会遇到审查问题。
- 🤔 故事创作者创作负面结局故事存在困难。
- 解释:评论者举例说明创作者会改变故事走向使其有好结局。
金句与有趣评论
- “😂 neutralpoliticsbot:Mistral - MOE - 4X7B - Dark - MultiVerse - Uncensored - Enhanced32 - 24B - gguf\n\nIs very good use at least Q6”
- 亮点:直接推荐模型并给出使用要求。
- “🤔 TheDailySpank:I like how someone other than me also uses the \"It outputs faster than I read!\" as a valid benchmark methodology.”
- 亮点:表达对某种评价方法的认可。
- “👀 August_Bebel:I mean, 70b+ models are cool, but any 8b for us, local peasants?”
- 亮点:以诙谐的方式询问8b模型对普通用户的可用性。
- “😎 All very capable and will run on 64GB of normal RAM + 8GB of VRAM, but expect like 1 token\\s on DDR5.”
- 亮点:详细说明模型运行所需的内存和显存条件以及运行速度。
- “💡 You know what I hate the most about these storytellers? (can’t speak for 120B+ models maybe they are better) is that they really struggle with bad endings or negative outcomes as a whole.”
- 亮点:指出故事创作者创作负面结局故事的困难这一独特观点。
情感分析
总体情感倾向较为中性,主要是在分享和讨论与NSFW故事创作模型相关的信息。主要分歧点在于Deepseek是否为无审查,可能的原因是不同用户的使用体验不同,以及对审查定义和标准的理解差异。
趋势与预测
- 新兴话题:通过特定提示语解决故事创作中的结局走向问题可能会引发后续讨论。
- 潜在影响:如果更多关于NSFW故事创作模型的性能和使用方式被发掘,可能会对相关的创作领域产生影响,如创作效率、创作内容类型等方面。
详细内容:
标题:寻找最佳的 NSFW 故事讲述模型引发的热烈讨论
在 Reddit 上,有一个关于“Best NSFW model for story telling?”的热门帖子引起了众多用户的关注。该帖子的作者表示不知道是否有专门用于此的模型,自己主要对 BDSM 感兴趣,希望能找到一个可以根据给定方向编写完整故事的模型。此帖获得了大量的点赞和众多评论。
讨论的焦点主要集中在各种模型的性能、适用条件以及使用体验等方面。有人提到 Mistral-MOE-4X7B-Dark-MultiVerse-Uncensored-Enhanced32-24B-gguf 很不错,至少要用 Q6 ,但有人质疑 16G VRAM 是否能运行。也有人表示喜欢将“输出比阅读速度还快”作为有效的基准方法。还有用户回忆起过去的网络速度,如从 300 波特的速度开始,感慨如今的 GPU 速度。
有用户分享说,70b+的模型很酷,但 8b 的对于普通人是否足够好存在争议。有人尝试了 Q3 或 Q4 的 32G 模型,认为乐趣更多。有人指出小模型容易让人更快感到厌倦,参数越多创造力越强。
部分用户分享了自己的个人经历和案例,如使用特定模型的效果良好。也有人对某些模型是否未被审查提出疑问和争论,有人认为 Deepseek 是未审查的,有人则持相反意见。
讨论中的核心问题在于如何找到最适合生成 NSFW 故事且性能良好、未被过度审查的模型。不同用户根据自己的经验和观点各抒己见,丰富了这场讨论。
您觉得在这场热烈的讨论中,最终能找到令人满意的答案吗?
感谢您的耐心阅读!来选个表情,或者留个评论吧!