原贴链接

打算再购入一块3090显卡,想知道当前最佳选择是什么。如果能尽量将任务转移到GPU上就更好了。但我不想等太久才得到回复。谢谢。

讨论总结

该讨论围绕着拥有两块3090时最佳无审查写作模型是什么展开。评论者们纷纷推荐自己认为合适的模型,如EVA 72B、Nemotron 70b、Cydonia等,同时还涉及模型在长上下文、GPU卸载、写作能力、运行参数等方面的性能情况,整个讨论没有明显的争论,大家都在分享自己的经验和建议。

主要观点

  1. 👍 推荐EVA 72B为最佳无审查写作模型
    • 支持理由:未详细解释,只是陈述了自己的选择并且提到在这个模型下可以毫无问题地完全卸载70B
    • 反对声音:无
  2. 🔥 Nemotron 70b和mistral Nemo可用于长上下文,但Nemo在2万以上表现差
    • 正方观点:部分评论者根据自己的经验认为这两个模型在长上下文方面有优势
    • 反方观点:有人指出Nemo在2万以上表现糟糕
  3. 💡 Cydonia比Nemo更好,有长上下文且更聪明,更接近大型模型
    • 解释:有评论者将Cydonia与Nemo进行比较,认为Cydonia基于Mistral Small 22B,在多个方面表现更优
  4. 💡 推荐Magnum v4 72b和Euryale v2.2为不错的选择(在48GB显存情况下)
    • 解释:针对48GB显存的情况,评论者推荐这两个模型是比较有能力的选择
  5. 💡 推荐ArliAi Llama 3.2 RPmax用于写作,擅长遵循指令且富有创意,适配双3090
    • 解释:评论者根据自身使用经验推荐该模型,阐述了其在指令遵循、创意、适配性方面的优点

金句与有趣评论

  1. “😂 我的选择是EVA 72B。”
    • 亮点:直接给出自己推荐的模型,简洁明了。
  2. “🤔 Due_Town_7073: Nemotron 70b, mistral Nemo for longer ctx”
    • 亮点:针对长上下文的需求给出推荐模型。
  3. “👀 Downtown - Case - 1755: Nemo is kind of terrible past like 20K.”
    • 亮点:指出Nemo模型在特定情况(2万以上)下的劣势。
  4. “😂 s101c: Cydonia (based on Mistral Small 22B) is much better than Nemo.”
    • 亮点:明确比较两个模型并得出优劣结论。
  5. “🤔 Few_Painter_5588: For 48gb of VRAM, you could fit in a 70b model with about a 10k context. I’d recommend either Magnum v4 72b or Euryale v2.2, both are very capable.”
    • 亮点:根据显存情况推荐模型并给出一定解释。

情感分析

[总体情感倾向比较积极正面,大家都在积极分享自己的推荐和经验。主要分歧点在于不同模型在不同方面(如长上下文、显存适配等)的性能表现,可能的原因是大家的使用场景、测试环境以及对模型性能侧重点不同。]

趋势与预测

  • 新兴话题:[可能会进一步探讨不同模型在更具体的写作类型(如诗歌、小说等)下的表现]
  • 潜在影响:[有助于为拥有双3090的用户在选择无审查写作模型时提供更多参考依据,推动相关模型在写作领域的优化和发展]

详细内容:

标题:双 3090 显卡的最佳无审查写作模型探讨

近日,Reddit 上一则关于双 3090 显卡最佳无审查写作模型的帖子引发了热烈讨论。该帖表示计划购置第二块 3090 显卡,想知道当下的最佳选择,还希望能将大部分任务至少能转移到 GPU 处理,同时不想等待太久才有回应。此帖获得了众多关注,评论众多。

讨论焦点主要集中在不同写作模型的优势与适用场景。有人认为 EVA 72B 是不错的选择,还表示可以完全卸载 70Bs。也有人提到 Nemotron 70b、Mistral Nemo 用于更长的上下文。不过,有人指出 Nemo 在超过 20K 之后表现不太好,认为这取决于对“长”的定义。有人分享自己的个人经历,表示在双 3090 上最多能达到 12k gguf q4km。

有人推荐 Cydonia(基于 Mistral Small 22B),称其比 Nemo 好,不仅有长上下文,还更聪明,更接近大型模型。还有人提到对于 48GB 的 VRAM,可以选择 70b 模型搭配约 10k 上下文,推荐了 Magnum v4 72b 或 Euryale v2.2 等。有人运行 llama3.1 70b 能达到 4bpw 和 65k 上下文。也有人尝试新设置后发现,Mistral Large 2407 exl2 在特定条件下表现出色,可能会替代 llama 成为主要选择。

讨论中的共识在于不同模型在不同场景下各有优势,需要根据具体需求和硬件条件来选择。特别有见地的观点如有人认为某些模型在特定条件下的写作风格类似于 Opus,丰富了讨论的维度。

那么,在众多的选择中,究竟哪一款才是最适合您双 3090 显卡的最佳写作模型呢?这还需要您根据自身的需求和实际使用情况来判断。