模型与技术 其他

芝麻CSM 1B语音克隆

[围绕Sesame CSM 1B语音克隆展开讨论,涉及在Windows运行的方法、API端点、运行速度、授权、是否有创新以及是否被需要等多方面内容,整体氛围热烈且充满技术探讨]

 ·  · 
模型与技术 新模型发布

使用Reka flash 3, 21B模型后删除之前所有模型

[原帖作者推荐Reka flash 3, 21B模型,评论者们围绕该模型与其他模型如QwQ等在性能、编码、速度等方面展开比较和讨论,有赞同也有质疑,整体氛围较为理性。]

 ·  · 
模型与技术 性能对比

qwq和gemma - 3加入长文本基准测试

[围绕qwq和gemma - 3加入长文本基准测试展开讨论,包括对测试结果、模型表现的质疑与评价,还有对不同模型相关性能的讨论和疑问]

 ·  · 
模型与技术 新模型发布

混合自回归/扩散大型语言模型Block Diffusion

[围绕Block Diffusion(混合自回归/扩散LLM)展开讨论,有对其优势和潜力的肯定,也涉及技术发展面临的限制,还包含一些对未来发展的预测和趣味建议等,整体氛围积极且充满探索性]

 ·  · 
模型与技术 性能对比

Gemma 3 27B在AI Studio和Ollama间的性能差异

[原帖探讨Gemma 3 27b模型在ai studio和ollama上性能存在差异,评论中有人给出可能原因、技术建议、反驳嘲讽等,总体氛围比较理性探讨且夹杂少量争论]

 ·  · 
模型与技术 性能对比

QwQ-32B在本地ollama上似乎无用,有人成功解决吗?

[关于QwQ - 32B模型在本地ollama上运行时无法得到有效代码结果的问题,大家从不同角度如模型设置、硬件条件、使用环境等进行了讨论,氛围较为积极且充满技术探讨氛围]

 ·  · 
模型与技术 训练与微调技术

构建自定义多模态模型训练框架

[原帖介绍了用于训练自定义多模态模型的Cornstarch框架,评论围绕模型合并、训练、推理、框架相关疑问、经验分享等展开,整体氛围积极且富有技术交流氛围]

 ·  · 
模型与技术 技术讨论

指令撰写:如何让大语言模型深度推理并构建完整项目

[原帖介绍突破LLMs限制的工作成果及原理,评论围绕要求示例、计划发布、对成果的期待、质疑等展开,氛围比较多元]

 ·  · 
模型与技术 性能对比

Sesame"s CSM具有实际价值

[关于Sesame的CSM,原帖认为其不错,而评论者观点不一,有批评其存在营销误导等问题的,也有认同其有价值的,还涉及模型特性、速度、名称等多方面的讨论,整体氛围存在争议。]

 ·  · 
模型与技术 新模型发布

AI2发布32B的OLMo:真正开源

[围绕AI2发布OLMo 32B这一事件,从模型的开源性质、发布时间、硬件适配、对大公司影响等多方面展开讨论,整体氛围积极且充满好奇]

 ·  ·