谷歌刚刚推出了3款新的Gemma产品(Gemma 2 2B、ShieldGemma和Gemma Scope)
Reddit用户围绕Google新发布的Gemma产品系列展开了关于安全合规、商业应用、AI伦理和技术性能的深入讨论。
Reddit用户围绕Google新发布的Gemma产品系列展开了关于安全合规、商业应用、AI伦理和技术性能的深入讨论。
原贴链接 好吧,考虑到我有限的硬件知识和经验,这可能是一个非常新手的问题😅 我一直在使用中档的i5 CPU来运行LLM,但现在我打算升级到一个至少有16个核心的更强大的CPU。最初,我打算选择一个强大的i7,但最近关于第13代和第14代Intel CPU的缺陷的报道让我重新考虑。现在,AMD似乎是一个可靠的替代选择。 我的简单问题是:在运行LLM时,AMD CPU的性能是否与Intel CPU相当? 我知道在运行LLM时,由于更好的支持和更少的麻烦,人们更倾向于选择Nvidia GPU而不是AMD GPU,但我想在选择CPU时这并不重要?
Reddit用户在2000美元预算内讨论如何选择合适的硬件以实现高效的本地LLaMa实现,主要关注速度、可靠性和VRAM效率。
讨论围绕是否可以在同一系统中同时使用RTX 4090和3070显卡,涉及兼容性、性能和电源需求等问题。
讨论围绕A100显卡的价格、投资风险、市场泡沫、水冷系统、商业模式等多个方面展开,涉及赠品活动、拍卖、社区共享等话题,总体氛围涉及技术讨论、投资策略和社区合作。
讨论围绕选择4090和GV100显卡用于文本和图像生成项目,最终用户基于性价比选择了3090。
讨论围绕如何为拥有高性能硬件的旧系统选择合适的模型,涉及模型推荐、显卡兼容性和性能优化。
Reddit用户围绕“Llama 3 405b System”的高性能计算系统展开了广泛讨论,涉及成本、性能、能耗、安全性和商业潜力等多个方面。