原贴链接

考虑到在这些基准测试中,即使是3倍的价格差异也非常显著,这就相当离谱了。我在关注Anthropic公司,好奇他们接下来会推出什么。就个人而言,如果他们能提供性能更好(优势明显)的模型,我可能仍然会为编码任务支付更高的费用。

讨论总结

这个讨论主要是关于Deepseek v3以53倍更便宜的价格在API速率上超越Sonnet这一情况。大家从多个角度进行讨论,包括价格比较、性能对比、本地构建成本、训练成本、数据隐私等。既有对Deepseek v3价格优势的惊叹,也有对其性能的怀疑,还涉及到一些相关技术和商业因素的探讨,整体氛围活跃且充满争议。

主要观点

  1. 👍 Deepseek价格相比Claude Sonnet非常便宜。
    • 支持理由:价格对比数据显示,Deepseek: $0.14 / 1M in + $0.28 / 1M out,Claude Sonnet: $3 / 1M in + $15 / 1M out。
    • 反对声音:无。
  2. 🔥 Deepseek v3模型训练成本低,反映出LLM训练效率可能被低估。
    • 正方观点:DFructonucleotide指出模型训练只用2,000个H800不到2个月花费560万美元。
    • 反方观点:无。
  3. 💡 期待Deepseek在OpenRouter上可用。
    • 解释:Everlier表达迫不及待的心情,引发了后续关于OpenRouter相关话题的讨论。
  4. 💡 DeepSeek v3比v2.5大3倍可能会更贵。
    • 解释:有人根据模型大小的变化提出价格可能增加的疑问。
  5. 💡 不清楚Deepseek是否利用API请求进行训练和保存数据。
    • 解释:有人找不到相关信息,引发了关于Deepseek、Google和OpenAI数据使用情况的讨论。

金句与有趣评论

  1. “😂 kmouratidis:Saved you the search: - Deepseek: $0.14 / 1M in + $0.28 / 1M out - Claude Sonnet: $3 / 1M in + $15 / 1M out”
    • 亮点:直接列出价格对比数据,清晰明了。
  2. “🤔 kmouratidis:Even at 100x I still wouldn’t regret the local build. Just like with the rest of my homelab, all the money I’ve thrown at it returned a good amount of knowledge that translated directly to stuff I could use / do better at work.”
    • 亮点:强调本地构建虽成本高但能获得知识的观点。
  3. “👀 DFructonucleotide:The model was trained on only 2,000 H800s for less than 2 months, costing $5.6M in total. We are probably vastly underestimating how efficient LLM training could be.”
    • 亮点:给出模型训练的具体数据,引出对LLM训练效率的思考。
  4. “😉 Everlier: Can’t wait till it’s available on OpenRouter”
    • 亮点:简单直白地表达期待。
  5. “🤨 Since DeepSeek v3 is 3x as big as v2.5, won’t it also be more expensive?”
    • 亮点:根据模型大小变化提出合理疑问。

情感分析

总体情感倾向比较复杂,既有对Deepseek v3价格优势感到惊喜和看好的积极情感,如很多人提到价格便宜是很大的优势,也有对其性能、数据使用等方面存在怀疑的消极情感。主要分歧点在于Deepseek v3的性能是否真的如价格优势一样出色,以及是否存在利用用户数据训练等问题。可能的原因是大家对新技术产品的期望和担忧并存,同时不同用户从不同的使用需求和关注点出发,导致观点的多样性。

趋势与预测

  • 新兴话题:关于Deepseek v3在实际世界应用中的效果可能会引发后续讨论,还有模型训练数据来源及数据隐私相关话题。
  • 潜在影响:如果Deepseek v3在实际应用中表现出色,可能会对闭源市场产生更大冲击,改变大语言模型市场的格局,同时也可能促使其他公司在价格和性能上做出调整,对相关领域的发展产生推动作用。

详细内容:

《Deepseek v3 引发的热门讨论:性能与价格的较量》

在 Reddit 上,一则关于“Deepseek v3 以远低于 Sonnet 的价格提供更优性能(API 费率)”的帖子引起了广泛关注。该帖子获得了众多点赞和大量评论。帖子指出,Deepseek v3 的价格优势令人瞩目,甚至相比 Sonnet 便宜了 53 倍,引发了大家对于其性能、价格、训练成本以及数据使用等方面的热烈讨论。

在讨论焦点与观点分析方面,有人详细列出了 Deepseek 和 Claude Sonnet 的具体价格对比,有人认为直到二月份 Deepseek 会更便宜,还有人指出即便价格提高,它仍比 Sonnet 便宜很多。有人分享自己的实验经历和计算结果,如拥有双 3090 系统的用户计算了生成 100 万令牌的成本。

关于价格低廉的原因,有人猜测是政府补贴,也有人认为是其采用了特殊的模型结构。对于训练成本,有人认为相关报道中的成本低得令人惊讶,可能低估了 LLM 训练的效率。

有用户分享个人经历,如曾拥有多台服务器进行各种实验,还有用户在测试中发现 Deepseek 在某些情况下表现出色。有趣的观点包括对未来训练方式的猜测,以及对数据使用和隐私问题的担忧。

总之,Reddit 上关于 Deepseek v3 的讨论丰富多样,涉及性能、价格、训练方式、数据使用等多个方面,充分展示了大家对于这一新技术的关注和思考。