大约半年前(在LLM世界里算是很久了),有很多人回复或发帖说command r尤其是plus版本很好。几周前,改进版的command r +发布了,但似乎没有人谈论它。 Cohere在发布时声明称它在推理、RAG、数学和编码方面表现更好。但没有基准测试,没有博客文章,没有localllama的喜爱,也没有YouTuber的评论。 有人在用吗? 分享你的经验
讨论总结
本次讨论主要围绕新版 Command R+ 的性能、使用体验和市场反响展开。多数用户认为 Command R+ 在某些特定任务(如故事讲述、文档聊天、角色扮演)上表现出色,但也有用户指出其在与其他现代模型的比较中并不特别出色。讨论中普遍提到 Command R+ 缺乏基准测试、博客文章和 YouTube 评测,导致其在市场上的关注度不高。此外,商业许可证的限制也降低了其吸引力。总体而言,讨论呈现出对 Command R+ 的性能认可与对其市场表现的失望并存。
主要观点
👍 Command R+ 在某些任务上优于其他模型
- 支持理由:在故事讲述和文档聊天方面表现出色,适合处理大量现有上下文的情况。
- 反对声音:在角色扮演(RP)方面表现不如预期,且在商业用例中表现更稳定,可能牺牲了一些创造性。
🔥 Command R+ 缺乏市场关注
- 正方观点:缺乏基准测试、博客文章和 YouTube 评测,导致其未受到广泛关注。
- 反方观点:尽管 Cohere 声称其在推理、RAG、数学和编码方面有所改进,但缺乏具体证据支持。
💡 商业许可证限制影响使用
- 支持理由:非商业许可证限制了用户对模型输出的自由使用,降低了其吸引力。
- 反对声音:其他解决方案在性能上与 Cohere 接近,因此不愿意受限于 Cohere 的许可证。
💡 Command R+ 在长上下文响应中表现不佳
- 支持理由:在处理简单提示和启动故事时表现不佳,更适合处理大量现有上下文的情况。
- 反对声音:需要复杂的提示模板和特定的采样参数设置,使用难度较高。
💡 Command R+ 在非英语语言中的表现出色
- 支持理由:在 API 价格和运行效率上具有优势,尤其在非英语语言中的响应质量表现出色。
- 反对声音:缺乏商业许可证,限制了其在实际应用中的广泛使用。
金句与有趣评论
“😂 I was really impressed, but then Qwen2.5-32B came along.”
- 亮点:反映了用户对新模型的快速适应和偏好变化。
“🤔 It’s better than the OG command R, but compared to other modern releases, it’s not as impressive.”
- 亮点:指出了新版 Command R+ 的改进有限,难以在竞争激烈的市场中脱颖而出。
“👀 Command R 可能在其设计用途(如工具使用等)方面表现良好,但在 Reddit 论坛上,由于其不适合角色扮演(RP),因此并未受到太多关注。”
- 亮点:揭示了模型在特定用途上的局限性,影响了其在社区中的受欢迎程度。
“👀 The new one seems worse in that regard.”
- 亮点:表达了用户对新版 Command R+ 在 RP/ERP 方面的失望。
“👀 I greatly appreciate command-r-08-2024, it’s very cheap on API and runs on my MacBook, although slowly.”
- 亮点:强调了 Command R+ 在性价比和运行效率上的优势。
情感分析
讨论的总体情感倾向较为复杂,既有用户对 Command R+ 性能的认可,也有对其市场表现和商业许可证限制的失望。主要分歧点在于 Command R+ 在特定任务上的表现与整体市场关注度之间的矛盾。可能的原因包括新模型更新速度快,用户对新模型的快速适应,以及缺乏足够的基准测试和评测来验证其改进效果。
趋势与预测
- 新兴话题:随着更多新模型的发布,用户对模型性能和商业许可证的关注将持续增加。
- 潜在影响:Command R+ 可能在特定领域(如技术写作、商业文档)中保持一定的市场份额,但在整体市场中的影响力可能受限。未来,更多的基准测试和评测将有助于提升其市场认知度和用户接受度。
详细内容:
标题:关于 Command R 新版本的热门讨论
大约半年前,Command R 尤其是其增强版受到了大量关注和讨论。然而,几周前新改进的 Command R + 推出后,却似乎无人问津。Cohere 称其在推理、RAG、数学和编码方面表现更优,可没有基准测试、博客文章、用户喜爱、油管评测。有人在使用它吗?这引发了大家的热烈讨论。此贴获得了众多回复,主要观点如下。
有人表示曾对其印象深刻,但随后 Qwen2.5-32B 出现了,觉得新的 Command-R 在某些任务上可能比 Qwen2.5-32B 好,但更倾向于一直使用一个稳定的模型。有人仍在故事讲述方面使用 Command-R 而非 Qwen 2.5,因其具有更长的上下文。也有人指出非商业许可证降低了大家的兴趣。
有人认为更新后的 Command R + 不错,但还不足以让自己放弃 Magnum 123b。有人在不同场景下会根据情况选择使用 CR+ 或 Magnum。有人觉得在创意写作方面 Magnum 更出色,而在其他方面则不一定。
有人认为新的 Command R 比原始版本好,但与其他现代版本相比不够出色。有人觉得它可能适用于特定用途,如工具使用等,但不太适用于角色扮演,加上 Mistral small 22B 和 QWEN 2.5 35B 等新模型的出现,新 Command R 可能会被遗忘。
有人认为原始版本意外地擅长角色扮演,新的在这方面表现较差,但新版本解决了原始 35B 缺乏 GQA 的问题。有人觉得新的版本过于积极偏向,GPT 风格明显,不够自然,稳定性和一致性不错。
有人认为其许可证限制严格,性能一般,即使不用于商业用途,也希望熟悉可用于商业的模型。有人认为它在 API 价格上很便宜,在自己的语言中响应质量好,但因非商业许可和电脑配置等原因,有更好的选择。
有人喜欢 Command-R+ 超过其他模型,但新的 CR+ 在角色扮演方面表现一般。有人认为新的版本不如旧版,不支持某些功能。有人觉得它在处理长上下文响应时会出现问题。
有人虽在角色扮演中大量使用新的 CR+ 并喜欢,认为它在处理复杂角色卡片和延续现有角色扮演会话方面表现不错。有人指出其使用复杂,对采样敏感,有特定的提示语法和采样要求。
有人认为它是非商业的,所以对于代码和 RAG 来说不够吸引人,且已有免费模型,其商业 API 也不如其他更成熟的服务。有人觉得它不遵循指令。
总的来说,关于 Command R + 的讨论观点各异,有人赞赏其优点,有人因各种原因对其不太满意。但无论如何,这些讨论都反映了大家对于模型性能和使用限制的关注和思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!