我的意思是,实际上任何人都可以下载一个最先进的(SOTA)模型并通过提供服务来赚钱(如果许可允许的话),但为什么没人想这么做呢?我很乐意支付高价,只要知道我的输入提示会被一个我或多或少信任其司法管辖权的公司迅速删除。其他所有国家未经许可使用最好的人工智能芯片有什么用呢?
讨论总结
该讨论主要聚焦于DeepSeek V3缺乏第三方提供商这一现象,从多个角度分析了可能的原因,包括成本效益(如硬件成本、运营成本、盈利空间等)、模型自身特性(参数量大、架构新、体积大等)、技术方面(基础设施、推理引擎等)以及其他因素(假期、许可证等),大家各抒己见,理性探讨。
主要观点
- 👍 基础设施硬件/软件未针对DeepSeek V3优化是缺少第三方供应商的原因。
- 支持理由:无明确反对观点,多数从不同方面补充解释没有第三方供应商的原因。
- 🔥 DeepSeek V3是大模型,需要很多硬件支持,目前以DeepSeek自己的托管价格,提供商提供服务可能无利可图。
- 正方观点:从模型大小、托管成本和价格等方面阐述提供商面临的情况。
- 反方观点:无明显反对观点。
- 💡 DeepSeek V3参数量大,提供小参数量模型成本更低更经济。
- 支持理由:从成本角度对比小参数量模型与DeepSeek V3的情况。
- 反对声音:有人指出混合专家模型推理计算强度不大,但未直接反驳该观点。
- 💡 第三方提供商少是因为利润空间差。
- 支持理由:从不同方面阐述提供商盈利困难。
- 反对声音:无明显反对观点。
- 💡 托管DeepSeek V3成本极高。
- 支持理由:无明确反对观点,且与其他成本相关观点相呼应。
- 反对声音:无。
金句与有趣评论
- “😂 Likely that most of the infrastructure hardware / software is not optimized for large mixture of expert models like deepseek v3.”
- 亮点:指出基础设施未优化这一可能被忽视的因素。
- “🤔 Providers are trying to bring it online, but for the moment it will likely not be profitable at the prices ds themselves are hosting it (it’s a promo price for now).”
- 亮点:从DeepSeek自己的托管价格分析提供商盈利情况。
- “👀 If you look at leaderboards, Qwen 32b coder and Qwen 72b Instruct are not horribly far behind, but the size differences (and hosting costs) between them and the 600b Deepseek V3 are pretty significant.”
- 亮点:通过对比Qwen系列和DeepSeek V3的差距,说明提供商选择模型的考虑因素。
- “😂 Deepseek官方API服务是无与伦比的, 既在价格和速度方面。”
- 亮点:强调Deepseek官方API服务的优势。
- “🤔 sassydodo:because it’s huge af, like what 680b parameters? way cheaper and economically sensible to just provide 70b models and qwq 32b”
- 亮点:直白地指出参数量大导致成本高的问题。
情感分析
总体情感倾向较为中性,大家主要是在探讨问题,没有明显的情绪化表达。主要分歧点在于造成第三方提供商少的关键原因,是成本、模型特性、技术还是其他因素。可能的原因是大家从不同的专业背景和角度出发看待这一现象,有的从商业运营角度,有的从技术实现角度等。
趋势与预测
- 新兴话题:DeepSeek V3的许可证对第三方托管的影响可能会引发后续更多讨论。
- 潜在影响:如果DeepSeek V3第三方提供商的情况得不到改善,可能会影响其在市场上的推广和应用,也可能促使DeepSeek调整自身策略以吸引更多第三方合作。
详细内容:
标题:为何DeepSeek V3第三方提供商尚不多见?
在Reddit上,一篇题为“为何还没有大量DeepSeek V3的第三方提供商?”的帖子引发了热烈讨论。该帖子获得了众多关注,评论众多。讨论主要围绕为何尽管DeepSeek V3模型可合法用于盈利服务,但目前仍少有人涉足这一领域。
讨论焦点与观点分析: 有人指出,可能是大部分基础设施软硬件未针对DeepSeek V3这样的大型混合专家模型进行优化,例如有人提到“Together尝试过托管,但人们只能获得7tk/s的速度”。也有人认为成本效益是关键因素,“如果我是托管商,除非有很好的条件让托管600b的模型更可行,否则我会选择依靠Qwen系列”。还有观点认为,DeepSeek官方的API服务在价格和速度方面无可比拟,“一个600+B参数的模型对任何第三方提供商来说都负担极重,且目前DeepSeek在搞促销活动,第三方提供商此时提供服务可能会亏损或速度极慢”。此外,数据隐私也是一个关注点,有人表示“人们会愿意支付额外费用以确保DeepSeek不会使用他们的数据进行训练”。
总之,各方观点从技术优化、成本效益、数据隐私等多方面探讨了第三方提供商较少的原因,目前尚未达成明确的共识。但这些讨论为深入理解这一现象提供了丰富的视角。
感谢您的耐心阅读!来选个表情,或者留个评论吧!