原贴链接

昨天听说了他们的缓存命中API定价后开始使用,不得不说,它真的很棒。我之前没有尝试过,真是太遗憾了(它已经发布了好几个月)。作为一个200亿参数的开源模型,它在编程任务上的表现与最好的模型不相上下,这非常令人印象深刻。他们的API缓存命中定价($0.017 / mt)非常实惠。自从昨天以来,我已经通过它处理了大约6600万个输入令牌,只花了$3.13。

看起来量化模型可以适应四块3090显卡的配置。如果能在本地运行,那将是一个非常酷的模型。

它在BigCodeBench中与3.5 Sonnet并列第三:

https://bigcode-bench.github.io/

讨论总结

Reddit用户对DeepSeek v2的编程模型性能和API定价表示高度赞赏,认为其性能优于其他模型,如4o mini,并且价格非常实惠。用户还讨论了在VSCode中使用Deepseek coder的体验,以及在遇到困难时使用Claude的情况。此外,用户对Deepseek v2的隐私政策表示担忧,并讨论了与其他模型的比较,如Mistral Large和Codestral。总体上,讨论围绕DeepSeek v2的性能、价格、隐私和与其他模型的比较展开。

主要观点

  1. 👍 DeepSeek v2的编程模型性能优于其他模型
    • 支持理由:用户表示DeepSeek v2在编程任务上的表现与顶尖模型相当,甚至优于某些模型。
    • 反对声音:有用户提到在本地运行时遇到问题,只能运行较小的模型。
  2. 🔥 DeepSeek v2的API定价非常实惠
    • 正方观点:用户使用6600万输入令牌仅花费了$3.13,认为价格非常合理。
    • 反方观点:有用户对隐私政策表示担忧,认为所有数据可能被用于训练。
  3. 💡 DeepSeek v2在BigCodeBench上排名第三
    • 解释:用户提到DeepSeek v2与3.5 Sonnet并列第三,认为其性能非常出色。
  4. 🌟 DeepSeek v2在处理非主流编程语言如F#和Nim时表现优异
    • 解释:用户表示DeepSeek Coder在处理非主流编程语言时表现出色,但在遇到问题时容易陷入重复错误。
  5. 🚀 DeepSeek v2的最新更新使其性能超过了Mistral Large 2
    • 解释:用户提到DeepSeek v2的最新更新使其性能超过了Mistral Large 2,认为其是一个被低估的模型。

金句与有趣评论

  1. “😂 Fleshybum:I’m getting good results with coder, better than 4o mini for sure.”
    • 亮点:用户对DeepSeek v2的编程模型性能表示高度赞赏。
  2. “🤔 geepytee:Been telling everyone that Deepseek Coder V2 is the most underrated coder model out there, great to see some appreciation posts”
    • 亮点:用户认为DeepSeek Coder V2是一个被低估的编程模型。
  3. “👀 Tobiaseins:Deepseek Coder is actually insanely smart, definitely in the top 5 models for both coding and math.”
    • 亮点:用户对DeepSeek Coder在编程和数学领域的性能表示高度评价。

情感分析

讨论的总体情感倾向是积极的,大多数用户对DeepSeek v2的编程模型性能和API定价表示赞赏。然而,也有用户对隐私政策表示担忧,并讨论了与其他模型的比较。主要分歧点在于隐私政策和模型性能的比较。

趋势与预测

  • 新兴话题:DeepSeek v2的本地运行和与其他模型的比较可能会引发更多讨论。
  • 潜在影响:DeepSeek v2的性能和价格优势可能会对编程模型市场产生影响,吸引更多用户尝试和使用。