M2 Ultra与M3 Ultra使用KoboldCpp的速度对比
[原帖对M2 Ultra和M3 Ultra在Koboldcpp中的速度比较结果引发多种讨论,包括意外、失望情绪,对结果的质疑,以及对测试过程补充操作的看法,还有一些关于性能提升和技术细节的探讨]
[原帖对M2 Ultra和M3 Ultra在Koboldcpp中的速度比较结果引发多种讨论,包括意外、失望情绪,对结果的质疑,以及对测试过程补充操作的看法,还有一些关于性能提升和技术细节的探讨]
[围绕QwQ和DeepSeek R1在LiveBench上的比较展开讨论,涉及模型性能、数据质量、测试设置等多方面,有正面评价、疑惑和反对等不同态度。]
[关于Deepseek R1仍为参考而Qwen QwQ 32B性能相似却未成为参考的原因,大家从性能、基准测试、知名度等多方面展开讨论,氛围较为理性且充满技术探讨]
[帖子关于Gemma 3 27B在四个独立基准的得分情况,评论涉及模型各方面表现、基准合理性、与其他模型对比等,氛围有争议且观点多样]
[Reddit用户们就Gemma 3展开讨论,涉及多个版本在不同任务中的表现、与其他模型对比,多数用户认可其表现,但也指出了一些问题,整体氛围积极且充满探索性]
[围绕Slim attention技术展开讨论,包括与其他技术的比较、技术原理、对内存的影响等,整体氛围积极且充满期待]
[关于Gemma3是否好用的讨论,大家分享使用体验,多数指出其存在问题,但也有正面评价,整体氛围较理性。]
[原帖分享量化对多语言LLMs影响的研究结果,评论者有推荐相关论文、表达感谢、提出质疑、对比量化方法、探讨研究方向等不同反应。]
[关于Gemma 3和Qwen 2.5基准比较的讨论,涉及比较的代表性、模型特性、性能表现等多方面,大家看法不一,整体氛围较为理性]
[原帖探讨Gemma3 - 12b - Q4在Ollama上比Deepseek - R1 - 14b - q8慢的问题,评论从kv缓存、系统配置、模型本身等多方面分析原因]