原贴链接

上一代大型语言模型(LLM)通过微调与消除限制仍未能做到完全无审查,而新的、更复杂且依旧带有管制性的模型开始出现。你们怎么看呢?在真正的智能出现并必然会满足每个用户需求之前,我们是否注定要忍受这种管制性的糟糕情况呢?

讨论总结

原帖质疑LLMs存在审查机制,不够符合个体需求以及企业安全状态对用户思想的影响。评论中,有人认为模型调整(abliterated)会损害模型能力,也有人觉得基准测试不能完全衡量调整后的模型;有人提出等待未审查的微调版本或自己进行微调,也有人分享使用不同版本模型的体验,还有人从开源、输入提示词、自己训练等方面给出应对审查问题的方法,另外关于企业与政府关系也有不同观点。总体氛围是积极探讨问题,争议较多。

主要观点

  1. 👍 很快会有abliterated版本出现
    • 支持理由:ServeAlone7622称一周内就会有相关版本推出
    • 反对声音:无
  2. 🔥 abliteration会损害模型能力/智力
    • 正方观点:brown2green给出文档实例
    • 反方观点:ServeAlone7622认为基准测试有问题,实践中abliterated模型表现可接受
  3. 💡 可等待未审查的微调版本或者自己进行微调
    • 支持理由:ttkciar认为其他被审查模型已有类似操作,Deepseek也会如此
    • 反对声音:无
  4. 🤔 原帖提到的问题是技能问题
    • 支持理由:有评论者使用相关产品未遇到问题
    • 反对声音:原帖作者及其他遇到问题的人可能反对
  5. 😎 开源可进行无审查的微调以应对LLM当前存在的问题
    • 支持理由:开源的优势在于可自由操作
    • 反对声音:无

金句与有趣评论

  1. “😂 Give it a week, failspy and crew will have an abliterated version out shortly.”
    • 亮点:对模型调整版本的推出时间作出预测
  2. “🤔 Abliteration damages model capabilities/intelligence.”
    • 亮点:指出模型调整可能带来的负面影响
  3. “👀 与此同时,monstral V2告诉我它要杀了我、我的家人,还说我的屁股没合上。从来没合上。”
    • 亮点:分享使用模型时的惊悚体验
  4. “😏 Yeah, about 5 - 8M$ to do it yourself. Go gettem, champ!”
    • 亮点:以调侃的方式表示结束企业安全状态对思想的影响所需的资金投入
  5. “💡 The beauty of open source is that you can make your own uncensored finetune”
    • 亮点:点明开源在应对模型审查问题上的优势

情感分析

总体情感倾向为中性,有积极探讨问题的态度。主要分歧点在于模型调整是否损害模型能力、原帖提到的问题是否是普遍存在的以及如何应对LLMs的审查等问题。可能的原因是大家使用模型的经验、对模型原理的理解以及看待企业影响的态度不同。

趋势与预测

  • 新兴话题:可能会有更多关于特定模型(如Deepseek R1 distill)在不同场景下的表现以及应对审查的新方法的讨论。
  • 潜在影响:如果更多人关注模型审查问题,可能促使相关企业调整审查策略,或者推动开源模型的发展。

详细内容:

标题:关于模型的“安全性”与“适当性”的热议

在 Reddit 上,一篇题为“Deepseek R1 distill 仍然比我更清楚在我自己的电脑上什么是‘安全’和‘适当’的,这种企业安全状态主导我们的思维有没有尽头?”的帖子引发了热烈讨论。该帖子获得了众多关注,评论数众多。

帖子主要探讨了新一代语言模型的审查和限制问题,以及用户对于这种现象的看法。讨论的核心问题是:在追求模型的个性化和自由度的同时,如何平衡安全和审查的标准。

在讨论中,主要观点如下: 有人认为短期内会有破解版出现。比如有人说:“给它一周时间,failspy 和他的团队很快就会推出破解版。”但也有人指出破解会损害模型的能力和智能。比如:“一个实例表明破解后性能下降的情况在这里有记录:https://huggingface.co/blog/mlabonne/abliteration 。不过也有人认为基准测试有其局限性,不能完全反映实际情况。

还有人分享了自己使用模型的经历,如“我几个月前对比了破解版和未破解版的 Llama - 3 - 8B - Instruct,在创意写作方面,它改变了角色性格,使其更不容易拒绝无害的请求。”

对于是否等待未审查的微调版本,有人认为要么等待,要么自己微调。

有人认为 Gemma2 虽然不错但存在家长式作风。

也有人表示开放源的优势在于可以自己制作未审查的微调。

有人觉得可以通过创新提示来解决问题。

总之,讨论中既有对模型限制的不满,也有对其安全性的理解,观点多样且充满争议。但大家普遍希望在保障一定安全性的前提下,能有更多的个性化和自由度。