亚历山大·多里亚(Alexander Doria)在X平台表示:我觉得这应该是一个更重磅的消息,DeepSeek是在英伟达H800上进行训练的,但正在华为制造的新型国产芯片910C上进行推理。原始来源为泽法(Zephyr)提到的华为相关内容。部分翻译:在华为云,ModelArts工作室(即模型即服务平台),升腾适配的新型模型已推出,DeepSeek - R1 - Distill模型已推出,Qwen - 14B、Qwen - 32B和Llama - 8B已经推出,更多模型即将推出。
讨论总结
该讨论围绕DeepSeek在华为910C芯片上运行推理这一主题展开。从多个方面进行了讨论,包括硬件设备对模型运行的影响、不同芯片的性能比较、中国GPU制造商的情况、对原帖内容真实性和性质的质疑、相关硬件价格等,讨论氛围比较复杂,既有积极看好的声音,也有不少质疑和争议的观点。
主要观点
- 👍 在家运行的只是部分模型而非大模型
- 支持理由:评论者有实际运行经验表明只能运行Distill模型而非大R1模型。
- 反对声音:无。
- 🔥 原帖是华为Model as a - Service平台的广告
- 正方观点:原帖提到华为云、平台及相关模型等内容,符合广告特征。
- 反方观点:原帖看似是在陈述DeepSeek在华为芯片上运行推理这一事实,并非广告。
- 💡 中国有自己的GPU制造商但没产生很大影响
- 解释:有评论指出寒武纪和摩尔线程等制造商存在,但未引起较大关注。
- 💡 华为910C可运行推理任务,但API情况不同
- 解释:评论者DonDonburi指出该芯片虽能运行推理但API方面有差异。
- 💡 如果DeepSeek在华为芯片上运行推理为真则影响重大
- 解释:有评论者对这件事表示积极期待,认为若为真意义非凡。
金句与有趣评论
- “😂 But these are just the Distill models I can run on my home computer, not the real big R1 model”
- 亮点:明确指出在家运行的模型只是部分而非完整大模型,揭示了原帖可能存在的误导性。
- “🤔 NVDA has deep moat not like AI companies where so many open source projects can be used to start with.”
- 亮点:通过对比英伟达和AI公司,阐述了英伟达的优势。
- “👀 Rumors say 910b is pretty slow, and software is awful as expected.”
- 亮点:对910B芯片的性能进行了负面评价,从侧面反映了华为芯片可能存在的问题。
- “😉 lol, good luck with those puts now, it’s going to the moon.”
- 亮点:以诙谐幽默的方式表达对DeepSeek在华为芯片上运行推理的看好。
- “🙄 false they used illegally obtained 50,000 H100 GPUs stop drinking CCP propaganda.”
- 亮点:该评论从资源合法性和政治宣传角度对原帖进行质疑,较为独特。
情感分析
总体情感倾向较为复杂。有积极看好DeepSeek在华为芯片上运行推理这一事件的,认为意义重大、充满期待;也有很多质疑的声音,包括对原帖内容真实性、新闻价值、是否为广告等方面的质疑,还有对华为芯片性能如910B速度慢、910C未准备好等的负面评价。主要分歧点在于对原帖内容的认可程度以及对华为芯片性能和这件事意义的看法。可能的原因是大家从不同的专业角度、利益立场出发,以及对信息的掌握程度不同。
趋势与预测
- 新兴话题:中国芯片技术与美国的差距、走私芯片的假设情况可能会引发后续讨论。
- 潜在影响:如果华为芯片在AI相关领域得到更多应用,可能会影响芯片行业的竞争格局,对中美在芯片技术领域的竞争关系产生影响,也可能影响相关AI模型训练和运行的硬件选择策略。
详细内容:
标题:关于 DeepSeek 在华为芯片上运行推理的热门讨论
近日,Reddit 上一则关于“DeepSeek 正在华为新的国产芯片 910C 上运行推理”的话题引发了广泛关注。该帖子获得了众多点赞和大量评论。
帖子中提到 DeepSeek 在英伟达 H800 上训练,但在华为 910C 芯片上运行推理,并提供了相关链接https://x.com/Dorialexander/status/1884167945280278857 。
讨论的焦点集中在以下几个方面: 有人认为在家用电脑上运行 Distill 模型并非真正的大型 R1 模型。也有人指出,在家运行 70b 模型已经成为可能,比如 Mac Mini M4 Pro 搭配 64GB 内存是目前较为消费者友好的选择。还有人探讨了不同设备运行模型的速度、性能以及成本等问题。
例如,有人分享道:“从 Youtube 上看到,人们用 Ollama 在 M4 Macs 上运行 Llama 3.3 70B,速度约为 10 - 12 T/s,非常实用。”
关于芯片的性能和应用,有人表示 910B 适合训练,也有人认为 910C 尚未准备好。
在讨论中,存在着对华为芯片性能和前景的不同看法。有人认为这是一项重大突破,而有人则对其表示怀疑。
对于华为芯片的发展,大家观点各异。有人认为中国的芯片技术与西方仍有差距,也有人认为华为的进步不可小觑。但总体而言,大家都对这一话题表现出了浓厚的兴趣和深入的思考。
未来,华为芯片能否在全球市场占据一席之地,我们拭目以待。
感谢您的耐心阅读!来选个表情,或者留个评论吧!