我的PC在输入"ollama run deepseek - r1:671b"10秒后的状态
[围绕在电脑上输入“ollama run deepseek - r1:671b”后的情况展开讨论,包括电脑故障、运行速度、性能表现等,同时涉及一些周边话题如视频来源、对Ollama的态度等,整体氛围轻松且充满技术交流]
[围绕在电脑上输入“ollama run deepseek - r1:671b”后的情况展开讨论,包括电脑故障、运行速度、性能表现等,同时涉及一些周边话题如视频来源、对Ollama的态度等,整体氛围轻松且充满技术交流]
[原帖作者因开源机器学习发展取消ChatGPT Plus订阅,打算买GPU,评论者围绕此展开,包括对开源趋势的赞同、对取消订阅原因的讨论、GPU选择的建议和性能比较等]
[原帖展示在Ubuntu系统下使3090和3060工作,评论围绕显卡相关技术操作、性能、性价比、模型加载等展开讨论,整体氛围多元,有赞同祝贺也有质疑反对。]
[围绕DeepSeek R1 671B MoE LLM在特定设备上的运行,从性能表现、真假性、硬件相关到特朗普政策等多个方面展开讨论,整体氛围活跃且充满技术交流]
[关于在2000美元的EPYC服务器上本地运行Deepseek R1 671b,大家讨论了硬件相关因素、运行成本、模型性能、本地运行与在线服务的利弊等内容,氛围比较理性]
[该讨论围绕GPU价格因人们急于自托管DeepSeek而飙升展开,涉及众多因素对GPU价格的影响、不同硬件和云服务的性价比、自托管相关的概念争议、英伟达的市场地位以及投资相关话题等,讨论氛围热烈且观点多样。]
[关于Deepseek R1被Nvidia托管这一事件,讨论涉及Deepseek R1的定价、与其他技术的比较、相关资源获取、英伟达微服务、设备兼容性等多方面内容,整体氛围比较积极且充满探索性]
[这是一个关于如何在Open WebUI上运行DeepSeek - R1 (671B) 1.58bit的教程帖子下的讨论,包含了性能测试、不同硬件下的运行情况、运行中的问题以及对教程的感谢与认可等内容,整体氛围比较积极且具有技术探讨性]
[原帖分享预算2000 - 2500美元的671B R1 CPU推理工作站设置,评论从不同方面展开讨论,包括硬件选择、性能、价格等,氛围以理性探讨为主]
[原帖探讨Nvidia的50x0系列问题并对AMD 7900 XT的可行性提问,评论中从性能、性价比、CUDA支持等多方面比较AMD和Nvidia,有不同的倾向和争议,整体氛围理性探讨中带有对AMD产品的争议]