使用Reka flash 3, 21B模型后删除之前所有模型
[原帖作者推荐Reka flash 3, 21B模型,评论者们围绕该模型与其他模型如QwQ等在性能、编码、速度等方面展开比较和讨论,有赞同也有质疑,整体氛围较为理性。]
[原帖作者推荐Reka flash 3, 21B模型,评论者们围绕该模型与其他模型如QwQ等在性能、编码、速度等方面展开比较和讨论,有赞同也有质疑,整体氛围较为理性。]
[围绕Block Diffusion(混合自回归/扩散LLM)展开讨论,有对其优势和潜力的肯定,也涉及技术发展面临的限制,还包含一些对未来发展的预测和趣味建议等,整体氛围积极且充满探索性]
[围绕AI2发布OLMo 32B这一事件,从模型的开源性质、发布时间、硬件适配、对大公司影响等多方面展开讨论,整体氛围积极且充满好奇]
[Sesame发布1B CSM但部分管道缺失,引发众多讨论,包括对Sesame的失望、对创业公司常见问题的探讨、模型相关的各种评价以及与中美人工智能竞争的关联等,整体氛围以负面评价为主]
[Cohere发布新模型Command A,用户对其表示祝贺、期待,在性能、运行、商业许可等多方面展开讨论,有肯定也有质疑,整体氛围积极且充满探索性]
[围绕Open SORA 2.0展开讨论,涉及它与其他模型对比、运行要求、性能优化等多方面内容,氛围较理性但也存在个别不当言论。]
[关于Nous Deephermes 24b和3b发布,大家讨论了模型性能、存在意义、测试情况、硬件需求、潜在风险等多方面内容,整体氛围积极中夹杂担忧。]
[围绕Gemma 3模型的架构调整、性能表现等方面展开讨论,包含对其计算量、多语言性能、不同版本对比等观点,整体氛围比较理性探讨]
[原帖提到新的Gemma3调优及遭遇自动审核问题,评论围绕Gemma3的各种话题展开,包括模型的使用、训练、审查、模板选择等,既有技术交流也有疑惑和个人观点分享。]
[SoftWhisper更新,用户对其功能、性能、依赖等方面进行讨论,整体讨论热度低且氛围平和]