原贴链接

Command A是我们Command系列新的最先进的模型,为需要快速、安全和高质量模型的要求苛刻的企业进行了优化。与领先的专有和开源模型(如GPT - 4o和DeepSeek - V3)相比,它以最小的硬件成本提供最高的性能。它具有111b(参数数量)、256k的上下文窗口,并且:1. 推理速度高达每秒156个标记,比GPT - 4o高1.75倍,比DeepSeek - V3高2.4倍;2. 在关键业务的代理和多语言任务上表现卓越;3. 硬件需求极低——与其他通常需要多达32个GPU的模型相比,它只需两个GPU即可部署。查看我们的完整报告:https://cohere.com/blog/command - a,以及模型卡片:https://huggingface.co/CohereForAI/c4ai - command - a - 03 - 2025。现在通过Cohere API以command - a - 03 - 2025的形式向所有人开放。

讨论总结

Cohere发布新模型Command A,一些用户对Cohere表示祝贺,将其比作行业黑马。多数评论围绕Command A展开多方面探讨,包括性能对比(如与Command - R +、DeepSeek - V3等对比)、运行条件(如适配GPU类型、在不同设备上的运行情况)、商业许可、是否会被huggingface托管等,也有用户分享试用体验,同时存在对其API定价过高的质疑。

主要观点

  1. 👍 对Cohere发布新模型表示祝贺
    • 支持理由:Cohere发布新模型是值得庆贺的事
    • 反对声音:无
  2. 🔥 期待Command A与Command - R +对比性能表现
    • 正方观点:新模型发布,对比性能有助于了解其优势
    • 反方观点:无
  3. 💡 Command A可以用2个3090运行是合理的
    • 解释:Mistral 123B的运行情况可作为参考
  4. 💡 质疑新模型都能达到最先进水平的说法
    • 解释:认为现在这种夸张表述太多
  5. 💡 认为Command A模型API定价过高
    • 解释:与其他模型相比价格缺乏竞争力

金句与有趣评论

  1. “😂 Congrats on the new release, you people are like a dark horse in our industry!”
    • 亮点:形象地表达对Cohere发布新模型的祝贺并肯定其在行业中的地位
  2. “🤔 HvskyAI:Always good to see a new release. It’ll be interesting to see how it performs in comparison to Command - R +.”
    • 亮点:体现对新模型性能对比的期待
  3. “👀 Thomas - Lore: Gave it a short test on their playground: very good writing style IMHO, good dialogues, not censored, definitely an upgrade over R+”
    • 亮点:分享试用体验,对Command A给予正面评价
  4. “🤔 zephyr_33:The API pricing is a deal breaker, no? 2.5 USD on input and 10 on output.”
    • 亮点:指出模型API定价过高这一关键问题
  5. “😂 Lately "State - of - the - art" makes me roll my eyes out of their sockets, the same as "shivers down my spine" and "testament to" and "disruptive" and "game - changing" :D”
    • 亮点:幽默地表达对过度营销话术的反感

情感分析

总体情感倾向是积极与探索性为主。主要分歧点在于对模型性能的期待程度和对API定价的看法。积极的原因是新模型发布带来新的可能性,大家对其充满期待与好奇;而对API定价的负面看法是因为与其他竞品相比价格缺乏竞争力。

趋势与预测

  • 新兴话题:模型是否会推出推理模型、与更多其他模型在不同功能方面的比较。
  • 潜在影响:如果Command A性能真如宣传,可能对自然语言处理领域产生积极推动;若API定价过高问题不解决,可能影响其市场推广和用户接受度。

详细内容:

标题:Cohere 推出新模型 Command A 引发 Reddit 热议

Cohere 推出了新模型 Command A,此消息在 Reddit 上引起了广泛关注。原帖介绍了 Command A 是为有高要求的企业优化的新型模型,在性能、成本和效率等方面具有显著优势,还提供了相关报告和模型卡的链接。该帖获得了众多点赞和评论,引发了关于模型性能、部署需求、与其他模型的比较等多方面的热烈讨论。

在讨论中,有人对新模型的发布表示祝贺,认为 Cohere 如同行业黑马。也有人对其性能与其他模型的对比表现出浓厚兴趣,比如有人好奇它与 Command - R + 的比较情况,还有人关注其在 48GB VRAM 上的最佳量化方式。有人指出可能需要两张 A100 之类的数据中心卡来支持,也有人认为对于企业部署可能如此,但爱好者可能得用 3090s。还有人在下载尝试,期待看到它在更高内存的 Mac 设备上的表现。有人认为其或许需要四张 24GB GPU 才能运行良好,也有人在 2x3090 上运行取得了不错效果。有人对其写作风格进行了初步测试,评价不错。有人指出它在某些方面的表现几乎与 DeepSeek V3 相同,但规模只有一半。有人质疑其 API 定价过高。

总的来说,大家对 Command A 模型的性能、适用场景和性价比等方面存在不同看法,既有期待和认可,也有质疑和担忧。但正是这些多样的声音,推动着对新技术的深入探讨和思考。究竟 Command A 能否在竞争激烈的模型市场中脱颖而出,还需要更多实际应用和时间的检验。