24b版本链接:https://huggingface.co/NousResearch/DeepHermes-3-Mistral-24B-Preview;3b版本链接:https://huggingface.co/NousResearch/DeepHermes-3-Llama-3-3B-Preview;官方gguf格式下,24b版本链接:https://huggingface.co/NousResearch/DeepHermes-3-Mistral-24B-Preview -GGUF;3b版本链接:https://huggingface.co/NousResearch/DeepHermes-3-Llama-3-3B-Preview -GGUF
讨论总结
这个讨论围绕Nous Deephermes 24b和3b的发布展开。大家从多个角度进行讨论,包括模型性能测试结果、与其他模型对比情况、在不同硬件环境下的表现,还有人表达对模型的喜爱、惊喜或者担忧等情感,也涉及到模型制作相关的好奇提问。
主要观点
- 👍 根据基准测试结果质疑24b模型存在的意义。
- 支持理由:基准测试显示其性能与基础的Mistral small相同。
- 反对声音:从不同角度回应,如基准测试不可靠需自己测试等。
- 🔥 24B初步测试结果良好。
- 正方观点:思考时间少、指令遵循能力好等多方面表现不错。
- 反方观点:无。
- 💡 16GB卡用户感激20 - 24b范围内的高质量发布。
- 解释:之前本地推理缺乏好选择,现在有了较好的模型。
- 💡 模型可能被用于不良目的。
- 解释:担心模型被解除行为限制而被不良利用。
- 💡 对Nous Deephermes模型发布感到兴奋。
- 解释:喜欢模型可切换思考模式等功能。
金句与有趣评论
- “😂 Lol I read it as deep herpes”
- 亮点:因名称相似产生误读,以幽默方式分享。
- “🤔 I just looked at the page for the 24b and according to the benchmark, it’s the same performance as the base Mistral small. What’s the point?”
- 亮点:直接根据测试结果质疑模型意义,引发后续讨论。
- “👀 Initial testing on 24B looking very good.”
- 亮点:给出初步测试正面结果,让大家对模型有更多期待。
- “🤔 What should I ask for next?”
- 亮点:以幽默方式表达对未来成果的期待。
- “👀 As a person with a 16GB card, I’m really grateful for the recent high - quality releases in the 20 - 24b range.”
- 亮点:从特定硬件用户角度表达对模型发布的感激。
情感分析
总体情感倾向是积极的,大家对模型发布多是惊喜、兴奋和感激的态度。主要分歧点在于模型性能的评价,如24b模型是否有意义。产生分歧的原因是基准测试结果与实际测试或者特定条件下测试结果存在差异。同时也存在对模型风险的担忧这种消极情感。
趋势与预测
- 新兴话题:模型制作所需的硬件和知识背景可能会引发后续讨论。
- 潜在影响:如果模型性能如测试结果那样良好,可能会影响相关领域的使用和发展,如本地推理方面;若模型存在风险问题,可能会对社会产生一定的安全风险等。
详细内容:
标题:Nous Deephermes 24b 和 3b 重磅发布,引发Reddit热议
近日,Reddit上关于Nous Deephermes 24b和3b的讨论热度颇高。该帖提供了相关模型的链接,包括24b:https://huggingface.co/NousResearch/DeepHermes-3-Mistral-24B-Preview ,3b:https://huggingface.co/NousResearch/DeepHermes-3-Llama-3-3B-Preview ,以及官方的gguf:24b:https://huggingface.co/NousResearch/DeepHermes-3-Mistral-24B-Preview-GGUF ,3b:https://huggingface.co/NousResearch/DeepHermes-3-Llama-3-3B-Preview-GGUF 。此帖获得了众多关注,评论数众多,引发了关于模型性能、特点等方面的热烈讨论。
讨论焦点与观点分析: 有人认为根据基准测试,24b的性能与基础的Mistral small相同,质疑其意义所在。但也有人指出,思考模式意味着更多的令牌,更多令牌意味着良好的性能。还有人表示,如果像之前所说,该模型在开启思考模式后表现优于基础的Mistral,那看起来就相当不错。有人提到,基准测试有时并不可靠,还是需要亲自测试。
有人分享说,对于预览版的24B进行初步测试,效果看起来非常好。它思考的时间比QwQ或Deepseek-R1-Distill-32B要少一些,但指令跟随方面似乎更好,并且运行速度明显快于32B的竞争对手。不过也有人认为,Mistral模型的主要缺陷是输出质量容易快速下降。
有人作为拥有16GB卡的用户,对20 - 24b范围内的高质量发布表示赞赏,称之前没有用于本地推理的好选择。还有人分享了测试结果,认为Deep Hermes 3 24b在开启推理后优于Reka 3 Flash。
有人好奇如何在12GB的设备上运行,有人回复可以在CPU上运行,并借助快速RAM和GPU的辅助。
有人称赞可以切换思考模式,认为这一模型就像一个强大的“野兽”,又有新模型可以测试了。
有人一直是Hermes的粉丝,对新版本感到兴奋。
有人因将“Deephermes”误读成“deep herpes”而打趣。
有人好奇如何生产这样的模型,需要什么样的硬件和背景知识。
总之,关于Nous Deephermes 24b和3b的讨论展现了Reddit用户对新模型的关注和期待,同时也反映了大家对模型性能、应用场景等方面的不同看法和思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!