原贴链接

我发现DeepSeek - R1(推理能力方面)是我用过的最适合编码的模型。但问题是我几乎没法使用它。他们的网站总是显示‘服务器繁忙,请稍后再试’。我想知道为什么他们不提供付费层级或者服务器来缓解流量压力呢?只要价格合理,我不介意付费。免费服务器可以一直为那些不能或者不愿付费的人提供服务。而愿意付费的人使用付费服务器可以确保稳定性和正常运行时间。与此同时,是否有其他的人工智能服务/网站提供DeepSeek - R1模型呢?

讨论总结

原帖提到DeepSeek - R1网站90%的时间繁忙几乎无法使用,认为其是最好的编码模型但由于繁忙希望有付费使用方式来解决,还询问是否有其他AI服务/网站可托管该模型。评论者们针对网站繁忙问题给出了众多解决方案,包括推荐其他AI服务(如Openrouter、Perplexity、Fireworks等)、自行托管、租用云计算能力等,也涉及到一些模型性能、隐私问题的讨论,同时也有对DeepSeek - R1本身的一些争议,如与其他模型的比较等,整体讨论较为活跃且多元。

主要观点

  1. 👍 DeepSeek - R1是很好的编码模型,但网站繁忙难以使用,应提供付费层级或服务器解决流量问题
    • 支持理由:很多人认可DeepSeek - R1在编码方面的能力,付费可确保稳定性和正常运行时间,满足不同用户需求。
    • 反对声音:无明显反对声音,但有提出其他替代方案的。
  2. 🔥 Fireworks是比较稳定的R1主机
    • 正方观点:在测试中是最稳定的R1主机,有零保留隐私政策。
    • 反方观点:价格相比DeepSeek自己的API较贵。
  3. 💡 Perplexity在自己服务器上托管DeepSeek - R1,但存在隐私问题
    • 解释:有自己的模型,可能会使用用户数据训练自己的模型,但可在隐私设置中禁用。
  4. 💡 可以在本地运行DeepSeek - R1相关模型来解决网站繁忙问题
    • 解释:如32b模型可在本地运行,不过存在模型是否为真正的DeepSeek - R1以及性能差异的争议。
  5. 💡 Groq有聊天和API功能,推理速度快且价格实惠,托管DeepSeek - R1:70B(后被反驳实际托管的是相关蒸馏版本)
    • 解释:推荐者称使用体验较好,但被其他评论者指出托管内容存在误解。

金句与有趣评论

  1. “😂 Try some providers at openrouter, pick one and go with it. Fireworks is not bad.”
    • 亮点:直接给出了在openrouter上挑选提供商并推荐Fireworks的建议。
  2. “🤔 I’m confused. DeepSeek does offer a paid API service for both of their models (V3 and R1): [https://platform.deepseek.com]”
    • 亮点:指出DeepSeek已提供付费API服务,与原帖作者认为没有付费服务的观点不同。
  3. “👀 Been using Groq and can recommend it! They provide chat and API and got specialized LPU hardware that makes inference quite fast while still affordable.”
    • 亮点:推荐Groq并阐述了其优点。
  4. “😂 I think you’re overestimating how expensive it is to run these models (especially R1, which is much cheaper than the others), and underestimating Perplexity.”
    • 亮点:对其他评论者关于运行模型成本和Perplexity的观点提出不同看法。
  5. “🤔 For about $800, you can buy an old Xeon server from eBay, add memory, and then do Deepseek - R1 inference on it as much as you like.”
    • 亮点:提出一种相对低成本的运行DeepSeek - R1的硬件解决方案。

情感分析

总体情感倾向是积极寻求解决DeepSeek - R1网站繁忙问题的方法。主要分歧点在于不同解决方案的有效性和可行性,例如对于某些推荐的AI服务(如Groq托管内容的争议)、本地运行的性能、付费服务是否真的存在等。可能的原因是大家基于不同的使用经验、技术背景和需求,对如何更好地使用DeepSeek - R1有不同的看法。

趋势与预测

  • 新兴话题:关于DeepSeek - R1模型在不同平台(如Openrouter等)上的具体使用方式(如API调用、搜索选项等),以及不同硬件(如Xeon服务器、RTX卡等)运行该模型的性能优化。
  • 潜在影响:如果更多的付费服务或替代方案被验证有效,可能会影响DeepSeek - R1官方的运营策略;对于用户来说,会有更多样化的选择来满足编码等需求,也可能促使其他类似AI模型服务在服务稳定性、付费模式等方面进行改进。

详细内容:

标题:DeepSeek-R1 可用性及替代方案的热门讨论

在 Reddit 上,一则关于 DeepSeek-R1 的讨论引发了众多网友的关注。该帖子指出,DeepSeek-R1 虽然是用于编码的绝佳模型,但由于其网站繁忙,导致使用困难。原帖提出为何不提供付费服务来改善流量问题,并询问是否有其他搭载 DeepSeek-R1 模型的服务或网站。此帖获得了较高的关注度,评论数众多,引发了大家对于如何更好地使用 DeepSeek-R1 以及相关替代方案的热烈讨论。

讨论焦点与观点分析: 有人推荐了 OpenRouter,并表示其中的 Fireworks 表现不错。也有人提到 Perplexity,认为其效果较好,且有用户分享了使用优惠券获取优惠的链接。同时,对于 Perplexity 的隐私问题,大家观点不一。 有人认为自行在家搭建服务器可以保证隐私,但也面临资金和技术的挑战。一些用户分享了自己使用不同配置和模型的经历,如使用旧款 Xeon 服务器等。 关于 DeepSeek-R1 的性能问题,有人认为其在处理能力和响应速度上有待改进,也有人认为这与基础设施团队的规模和能力有关。 对于安全和隐私方面的担忧,有文章指出 DeepSeek 存在数据传输加密等问题,但也有人对此表示质疑。

总之,在这场讨论中,大家对于 DeepSeek-R1 的可用性、性能、隐私以及替代方案各抒己见,为寻求更好的解决方案提供了丰富的思路。