模型与技术 新模型发布

Open Euro LLM发布

[围绕Open Euro LLM的推出展开讨论,涉及项目成果预期、资金、合作对象、与其他项目比较等多方面,观点有积极有消极,整体氛围较为复杂]

 ·  · 
模型与技术 训练与微调技术

30分钟用Deepseek R1和Kiln AI训练自己的推理模型

[原帖介绍Kiln AI可在30分钟内训练推理模型,评论者围绕工具的功能、操作可行性、成本效益等提问,也有对特定行为表示有趣的观点,整体氛围积极探讨]

 ·  · 
模型与技术 技术讨论

Deepseek的GRPO方法奖励函数出错则劣于原模型

[原帖讨论GRPO在奖励函数出错时会比原模型差,评论从GRPO的特性、模型与奖励设置者的博弈、错误的普遍影响、小模型中的应用等多方面展开讨论,整体氛围较为理性探讨。]

 ·  · 
模型与技术 技术讨论

深析Deepseek R1论文中的语言混合问题

[原帖对Deepseek R1论文中研究界反对语言混合现象表示疑惑,评论者们从多语言学习体验、安全性、性能、思维链发展等多方面进行讨论,整体氛围较为理性且有不同观点交流]

 ·  · 
模型与技术 其他

2025年最令人期待的AI模型

[Reddit用户针对2025年在数学、编码、视觉、通用智能等方面令人兴奋的模型展开讨论,提到了众多模型,如Llama - 4、DeepSeek系列等,同时也涉及模型的特性、发展潜力和一些相关技术的期待,整体氛围积极且充满期待]

 ·  · 
模型与技术 新模型发布

L3.3 - Damascus - R1:基于社区反馈更新的AI模型

[原帖介绍L3.3 - Damascus - R1模型及其相关信息,评论围绕模型卡片、功能、对比、试用等方面展开,既有赞赏也有质疑,氛围较为理性探讨]

 ·  · 
模型与技术 性能对比

Phi 4:14b是否真的好用?

[围绕Phi是否变好展开讨论,涉及LLMs的表现、与AGI的距离、不同模型对比、各模型的优势和问题等,整体氛围理性且多方面探讨]

 ·  · 
模型与技术 新模型发布

小于R1的优秀MoE模型

[原帖询问是否有比R1小的优秀MoE模型,评论者们推荐了一些模型、分享了自己的模型使用经验、指出当前小型MoE模型的现状并表达了对相关厂商的看法,整体氛围较为平和]

 ·  · 
模型与技术 训练与微调技术

深探研究人员称仅需2 - 3周即可训练R1和R1 - Zero

[关于Deepseek研究员称仅用2 - 3周训练R1和R1 - Zero的帖子,大家讨论了Deepseek相关模型的方方面面,包括训练时长的可信度、模型优势、模型改进、不同模型的比较等,还涉及到人工智能竞赛、知识构建等相关话题,氛围较为多元,既有期待支持也有怀疑。]

 ·  · 
模型与技术 其他

OpenAI深度研究走向开源

[围绕OpenAI深度研究开源这一事件,大家从Hugging Face的贡献、是否存在陷阱、项目关注度、对开源的期待与惊讶、运行和使用问题、营销手段以及进行了一些调侃等多方面展开讨论]

 ·  ·