我尝试过的模型不必要地像道德警察一样,这破坏了哲学辩论的目的。你会推荐什么模型呢?
讨论总结
原帖询问适合哲学对话或头脑风暴的无审查/无过滤小模型(最大22B),因为试过的模型像道德警察一样影响哲学辩论。评论者们推荐了多种模型,如Mistral系列、NeMo(12B)、Deepseek、Neural Daredevil 8B、Llama 3.3 70b instruct q_4、deepseek - r1 - distill - llama - 70b q_4等,还提到一些模型查找的途径、模型的性能、在哲学探讨中的适用性、基础模型被忽视等内容,讨论氛围比较理性,大家分享各自的经验和见解。
主要观点
- 👍 Mistral模型无审查且有广泛知识,适用于哲学对话。
- 支持理由:评论者直接指出Mistral模型开箱即用无审查且知识广泛。
- 反对声音:有评论者指出Mistral缺乏创造性、易重复和草率。
- 🔥 高创作性写作模型不一定适合对话/头脑风暴。
- 正方观点:评论者举例一些故事写作模型在互动时表现不佳,失去连贯性和对话意识。
- 反方观点:无(未提及)
- 💡 基础模型若有好的提示即可用于哲学对话或头脑风暴,但未得到足够重视。
- 解释:部分评论者指出基础模型被人们忽视,其实有好提示就可满足需求。
金句与有趣评论
- “😂 Any Mistral model. They are uncensored out of the box and have broad general knowledge.”
- 亮点:简洁地指出Mistral模型的优势,无审查且知识广泛,容易让人记住。
- “🤔 我见过一些很棒的故事写作模型在尝试与之交互时表现非常糟糕,失去连贯性和对话意识,仿佛它生活在自己的世界里,不太关心用户。”
- 亮点:生动地描述了高创作性写作模型在对话方面的劣势。
- “👀 对于哲学类的东西,我在一些非主 流模型上有更好的运气。”
- 亮点:提供了一种不同的寻找适合哲学对话模型的思路,即考虑非主 流模型。
情感分析
总体情感倾向为中性。主要分歧点在于对Mistral模型的评价,有的认为其适合哲学对话,有的指出它缺乏创造性等不足。可能的原因是不同用户使用模型的场景和需求不同,以及对模型性能评判的标准存在差异。
趋势与预测
- 新兴话题:基础模型在哲学对话中的应用潜力。
- 潜在影响:对人们选择用于哲学对话/头脑风暴的模型产生影响,促使更多人关注基础模型;也可能影响模型开发者对基础模型在哲学对话场景下的优化方向。
详细内容:
标题:探索适用于哲学对话与头脑风暴的最佳未审查小型模型
在 Reddit 上,一则题为“ What are the best uncensored/unfiltered small models(up to 22B) for philosophical conversation/brainstorming?”的帖子引起了广泛关注。该帖子获得了众多点赞和大量评论,主要探讨了在哲学对话和头脑风暴中,哪些未经过审查和过滤的小型模型表现出色。发帖人表示自己尝试过的一些模型表现得像“道德警察”,影响了哲学辩论的目的,希望大家能推荐更好的模型。
讨论焦点与观点分析: 有人提到任何 Mistral 模型,称它们开箱即未审查,且具有广泛的通用知识,新的 Mistral Small 很棒,12B 的 NeMo 也是如此。并建议给予系统提示,将其设定为常春藤盟校的哲学教授,与用户进行无限制的私人对话。但也有人表示测试时得到了拒绝回复。有人提出使用现有的系统提示来破解限制,还有人认为应查看相关的排行榜,比如“Uncensored General Intelligence”(https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard)和“Emotional Intelligence Benchmarks for LLMs”(https://eqbench.com/creative_writing.html)。
有人分享了自己使用模型的个人经历和案例,比如 martinerous 目前使用的 Gemma 2 为 27B,在 16GB VRAM 上运行较慢,但能接受。同时指出 Gemma 2 存在容易过度戏剧化等问题。
有人认为具有高创意写作能力的模型不一定最适合对话和头脑风暴,还提到一些模型在试图赋予其生动个性时会切换到“角色扮演模式”,回复变得冗长且戏剧化。
也有人表示在哲学方面,一些不太主流的模型效果更好,建议在 Hugging Face 上寻找专门针对创意写作或角色扮演数据集训练的模型,并强调了提示工程对引导模型行为的重要性。
有人认为只有新的 23b Mistral 模型足够好,还有人推荐了 Deepseek 等模型,并提到了使用某些大型模型的硬件要求和配置方法。
总之,在这场讨论中,大家对于寻找适合哲学对话和头脑风暴的未审查小型模型各抒己见,提供了丰富的观点和经验。但对于究竟哪款模型最优,尚未达成明确的共识。
感谢您的耐心阅读!来选个表情,或者留个评论吧!