模型与技术 性能对比

QwQ-32B在本地ollama上似乎无用,有人成功解决吗?

[关于QwQ - 32B模型在本地ollama上运行时无法得到有效代码结果的问题,大家从不同角度如模型设置、硬件条件、使用环境等进行了讨论,氛围较为积极且充满技术探讨氛围]

 ·  · 
模型与技术 性能对比

Sesame"s CSM具有实际价值

[关于Sesame的CSM,原帖认为其不错,而评论者观点不一,有批评其存在营销误导等问题的,也有认同其有价值的,还涉及模型特性、速度、名称等多方面的讨论,整体氛围存在争议。]

 ·  · 
模型与技术 性能对比

QwQ在LiveBench(更新):优于DeepSeek R1

[围绕QwQ在LiveBench上比DeepSeek R1更好这一话题展开讨论,涉及模型性能、测试情况、与其他模型比较等多方面,观点有褒有贬,争议较大]

 ·  · 
模型与技术 性能对比

Gemma 3 27B在四个独立基准测试中的得分:评估不同差异大

[该讨论围绕Gemma 3 27B在独立基准测试中的得分情况展开,涉及模型的不同表现、与其他模型对比、存在的问题以及部分模型如Phi - 4、QwQ - 32B的相关评价等,讨论氛围较为理性且观点多样]

 ·  · 
模型与技术 性能对比

Deepseek R1成参考,Qwen QwQ 32B性能相似但尺寸更合理

[关于Deepseek R1仍为参考而Qwen QwQ 32B性能相似却未成为参考的原因,大家从性能、基准测试、知名度等多方面展开讨论,氛围较为理性且充满技术探讨]

 ·  · 
模型与技术 性能对比

Gemma 3性能惊人

[Reddit用户们就Gemma 3展开讨论,涉及多个版本在不同任务中的表现、与其他模型对比,多数用户认可其表现,但也指出了一些问题,整体氛围积极且充满探索性]

 ·  · 
模型与技术 性能对比

Slim Attention:无损减半上下文内存

[围绕Slim attention技术展开讨论,包括与其他技术的比较、技术原理、对内存的影响等,整体氛围积极且充满期待]

 ·  · 
模型与技术 性能对比

Gemma3失误过多,难以使用

[关于Gemma3是否好用的讨论,大家分享使用体验,多数指出其存在问题,但也有正面评价,整体氛围较理性。]

 ·  · 
模型与技术 性能对比

LLM的英语K_量化不会过度降低多语言性能

[原帖分享量化对多语言LLMs影响的研究结果,评论者有推荐相关论文、表达感谢、提出质疑、对比量化方法、探讨研究方向等不同反应。]

 ·  · 
模型与技术 性能对比

Gemma 3与Qwen 2.5基准测试对比(指令调优版)

[关于Gemma 3和Qwen 2.5基准比较的讨论,涉及比较的代表性、模型特性、性能表现等多方面,大家看法不一,整体氛围较为理性]

 ·  ·