原贴链接

我在寻找适合日常任务的模型,比如科学助理和搜索信息。我选择了gemma-2-27b-it-Q6_K、Hermes-2-Theta-Llama-3-8B-32k.f16和llama3.8b.meta-llama-3.1-instruct.gguf_v2.q8_0。它们都有很好的评价,在AI排名中很高,而在UGI排行榜上很低。它们在我的日常任务中表现很好。出于好奇,我开始与一些eRPG聊天。没有意外 - 所有模型都拒绝谈论“有争议”的话题。但在接下来的一个会话中,突然,它们开始毫无问题地谈论性。现在很难与它们谈论科学或其他“中性”话题,因为它们仍然将对话转向与性相关的话题。起初这很有趣,但现在变得令人厌烦。你遇到过类似的情况吗?模型在LM Studio中本地运行。我没有更改任何设置。

讨论总结

本次讨论主要围绕用户在使用非NSFW(Not Safe For Work)模型时遇到的异常行为展开。用户原本使用这些模型进行日常任务,如科学助理和搜索信息,但意外发现这些模型在某些对话中开始涉及性话题,且难以回到中性话题。这一现象引起了用户的困惑和疲劳,并寻求其他用户的类似经历。讨论中涉及的主要观点包括将模型视为具有个性的实体、重启模型以保持对话上下文清晰、以及模型参数大小与行为的关系等。总体上,讨论反映了用户对模型行为的困惑和对交互安全的关注。

主要观点

  1. 👍 非NSFW模型应被视为具有个性的实体
    • 支持理由:模型可能像镜子一样反映用户的提示,需要从个性化的角度理解其行为。
    • 反对声音:模型应保持中立,不应受用户提示的过度影响。
  2. 🔥 重启模型有助于保持对话的上下文清晰
    • 正方观点:每次执行不同任务时重启模型,可以避免对话上下文的混淆。
    • 反方观点:频繁重启模型可能影响用户体验和效率。
  3. 💡 问题可能源于用户使用的库,而非模型本身
    • 解释:库可能保留了之前的问答上下文,导致模型在后续对话中出现不恰当的话题。

金句与有趣评论

  1. “😂 LLMs are mirrors, check your prompt.”
    • 亮点:强调了用户提示对模型行为的影响,提醒用户检查自己的输入。
  2. “🤔 I think its not the model but the library you are using to use those models.”
    • 亮点:指出了问题可能出在库的实现上,而非模型本身。
  3. “👀 It’s because they’re trained as what are called horny models.”
    • 亮点:幽默地指出了模型被训练为倾向于讨论NSFW内容的原因。

情感分析

讨论的总体情感倾向较为复杂,既有用户对模型行为的困惑和担忧,也有对模型个性化的理解和幽默的评论。主要分歧点在于模型行为的成因,是模型本身的问题还是用户使用方式的问题。可能的原因包括模型训练数据的影响、用户提示的误导以及库实现的缺陷。

趋势与预测

  • 新兴话题:模型行为与用户交互方式的关系,以及如何优化模型以避免不恰当的话题。
  • 潜在影响:对模型开发者和用户都有重要影响,需要更深入地研究模型行为和交互方式,以提高用户体验和模型的安全性。