指令撰写:如何让大语言模型深度推理并构建完整项目

[原帖介绍突破LLMs限制的工作成果及原理,评论围绕要求示例、计划发布、对成果的期待、质疑等展开,氛围比较多元]

 ·  · 

qwq和gemma - 3加入长文本基准测试

[围绕qwq和gemma - 3加入长文本基准测试展开讨论,包括对测试结果、模型表现的质疑与评价,还有对不同模型相关性能的讨论和疑问]

 ·  · 

混合自回归/扩散大型语言模型Block Diffusion

[围绕Block Diffusion(混合自回归/扩散LLM)展开讨论,有对其优势和潜力的肯定,也涉及技术发展面临的限制,还包含一些对未来发展的预测和趣味建议等,整体氛围积极且充满探索性]

 ·  · 

GMKTec确认2025年5月推出Ryzen AI Max+ 395,最强AI迷你PC竞争升温

[围绕GMKTec将于2025年5月推出的Ryzen AI Max + 395产品展开讨论,涉及与其他产品比较、性能、价格等多方面内容,有对产品的期待、质疑等不同情感]

 ·  · 

[围绕Gemma 3展开多方面讨论,包括性能、体验、与其他模型比较等,观点有褒有贬,还涉及Command - A等模型,总体氛围是对各类模型进行深度探讨]

 ·  · 

Gemma 3在Unsloth中微调,速度提升1.6倍且VRAM占用减少60%

[该讨论围绕Gemma3在Unsloth中的微调展开,包括功能、优化、运行情况等多方面的疑问、期待与积极评价]

 ·  · 

QwQ-32B在本地ollama上似乎无用,有人成功解决吗?

[关于QwQ - 32B模型在本地ollama上运行时无法得到有效代码结果的问题,大家从不同角度如模型设置、硬件条件、使用环境等进行了讨论,氛围较为积极且充满技术探讨氛围]

 ·  · 

最佳无审查大语言模型

[原帖询问非色情类无审查的大型语言模型(LLM),评论围绕推荐无审查LLM、获取模型内容的方法、审查相关问题等展开,整体氛围活跃且充满探索性]

 ·  · 

Sesame"s CSM具有实际价值

[关于Sesame的CSM,原帖认为其不错,而评论者观点不一,有批评其存在营销误导等问题的,也有认同其有价值的,还涉及模型特性、速度、名称等多方面的讨论,整体氛围存在争议。]

 ·  · 

构建自定义多模态模型训练框架

[原帖介绍了用于训练自定义多模态模型的Cornstarch框架,评论围绕模型合并、训练、推理、框架相关疑问、经验分享等展开,整体氛围积极且富有技术交流氛围]

 ·  ·