我在当地一家商店发现一款二手的微星超龙X RTX 3090售价820欧元,很想买但又有些疑虑,本质上是在找个借口买它。我理解得对吗?接下来几个月似乎不会有至少24GB显存且更便宜(或同等价格)的替代品。英特尔传闻中的24GB显存GPU可能今年都不会推出甚至永远不会推出。微星超龙X RTX 3090质量好吗?有没有什么隐患?我肯定会对它进行功耗限制,我的微型ATX机箱由于位置原因可能通风不太好,而且我想让GPU尽可能使用长久,我是个很少升级硬件的焦虑之人。还不确定针对大语言模型使用进行限制(功耗限制、降压还是其他方法)的正确方式。我的其他组件配置如下:主板为华硕TUF Gaming B760M - Plus D4,内存为64GB DDR4,CPU为i7 14700(希望别性能下降,保佑,已更新BIOS),电源为海韵Focus GX - 850,当前GPU为4060 Ti 16GB,机箱为分形工艺Define Mini(如果重新排列硬盘应该能装下33厘米长的超龙),使用Windows 11。我知道苹果电脑有更多统一内存,AMD新的人工智能CPU及其‘即将推出’的设备,但性能似乎比3090差而且价格高很多(欧洲还要加21%的增值税)。下面是一些个人的吐槽,可忽略。这不是经济问题,我甚至买得起苹果电脑,但心理上过不去。这是在贫困家庭长大的结果,那时连卡带机都买不起,只能用别人扔掉的零件自己组装。现在能买得起想要的一切但需要很好的理由,否则会愧疚好几个月,因为花了太多钱。之前买4060 Ti 16GB的时候也经历过类似的焦虑和疑虑,天真地以为‘16GB就够了’。然后32B大语言模型出现了,然后是Flux,现在是Wan video,我想‘都试试’,为朋友和亲戚生成一些内容找点乐子。我可以在4060上运行,但要花很多时间调整设置、选择合适的量化方式以避免内存不足错误,而且视频生成要等很久,结果还发现生成的内容与提示不太相符,需要重新生成。现在说说借口,我可以骗自己这是对工作学习的一种投资。我是一名软件开发人员(顺便说一下,先天性视力障碍),但我在做无聊的ERP系统集成工作,不是人工智能相关的。不过,我已经为KoboldCpp/OpenRouter/Gemini构建了自己的大语言模型前端,这是一种可能某天在工作中有用的开发经验……但很可能没用。我还在虚幻引擎中做了一些实验,有个想法是创建一个大语言模型的3D助手化身,但说实话,我没有足够时间做所有事。所以,老实说,这只是个爱好。你们大家是如何说服自己在GPU上花这么多钱的呢?
讨论总结
原帖作者发现一款二手的MSI SUPRIM X RTX 3090售价820欧元,想购买但在寻找购买理由,同时还咨询了该显卡的质量以及在运行本地LLM和扩散模型方面是否仍是性价比最高的选择等问题。评论者们各抒己见,从不同角度给出了自己的观点,包括从性价比、硬件组合、使用经验、消费心理等多方面,有支持购买的,也有反对购买的,整体讨论氛围比较理性。
主要观点
- 👍 RTX 3090在没有48GB显存显卡或不愿使用多卡系统时,是性价比之选
- 支持理由:4090相比3090提升不大价格更高,5090显存虽提升到32GB,但价格大幅跃升且驱动不稳定,32GB显存也未带来质变。
- 反对声音:无
- 🔥 如果仅为生成内容,不值得花820欧元购买RTX 3090
- 正方观点:使用像openrouter这样的在线服务或订阅服务更便宜、更快且更省心。
- 反方观点:若爱好是摆弄硬件则值得购买。
- 💡 3090 + 2x 3060的组合对于有特定主板的人是个不错选择
- 支持理由:3060价格便宜且在二手市场供应充足,这种组合可通过调整各卡设置来运行70b模型,前期投资少且后续扩充容易。
- 反对声音:无
- 👍 购买高价GPU可视为爱好,只要爱好支出不影响正常收支就不必担忧
- 支持理由:不同的人有不同的爱好消费,如旅游、喝酒、买豪车或建立家庭实验室。
- 反对声音:无
- 🔥 一块24GB显存的RTX 3090对某些工作流运行本地LLM不太够用
- 正方观点:运行一些较大模型需要至少两块3090才可能达到可用的程度。
- 反方观点:用32K上下文长度运行QwQ 32B可解决难题,性能下降不至于不可用。
金句与有趣评论
- “🤔 我实际上从事AI工作:D”
- 亮点:表明自身情况,暗示在AI领域工作的人购买GPU有一定合理性。
- “😂 我认为它(RTX 3090)仍然是性价比与性能的最佳平衡点。”
- 亮点:直接表达对RTX 3090性价比的认可。
- “👀 你可以玩电脑游戏。”
- 亮点:简单直接地给出购买RTX 3090的一个理由。
- “🤔 如果您只是想生成一些内容,那么不,这不值得。”
- 亮点:从生成内容的需求出发,否定购买RTX 3090的必要性。
- “😎 我从RTX 3050(6GB)到RTX 3060(12GB)再到RTX 3090(24GB),在几个月内,我就停在3090了。它真的是生成式AI(文本、图像、音频、视频)的最佳选择。”
- 亮点:通过自身升级显卡的经历,强调RTX 3090在生成式AI方面的优势。
情感分析
总体情感倾向比较中立。主要分歧点在于RTX 3090是否值得购买,部分人从性价比、使用场景等角度认为值得购买,而另一部分人认为价格过高或者有更好的替代选择(如在线服务)不值得购买。产生分歧的原因主要是大家对于显卡的需求、使用场景以及经济考量等方面存在差异。
趋势与预测
- 新兴话题:多卡运行时的性能优化以及不同显卡组合在运行LLM等任务时的潜力。
- 潜在影响:对想要购买显卡运行本地模型的用户在决策上有更多参考依据,也可能影响显卡市场的价格走向和产品研发方向。
详细内容:
标题:RTX 3090 是否仍是运行本地 LLM 和扩散模型的性价比之王?
在 Reddit 上,有一个热门讨论引起了众多用户的关注,帖子的标题是“Is RTX 3090 still the only king of price/performance for running local LLMs and diffusion models? (plus some rant)”,目前已获得了大量的点赞和众多评论。
帖子的作者在当地商店发现了一款二手的 MSI SUPRIM X RTX 3090,售价 820 欧元,内心十分纠结是否购买。作者考虑到自己的硬件配置,包括华硕 TUF 游戏 B760M-Plus D4 主板、64GB DDR4 内存、i7 14700 CPU 等,还提及了自己成长在贫困家庭,对于消费有着特殊的心理。作者表示虽然自己是软件开发者,但工作并非与 AI 相关,购买更多是出于爱好。
讨论中主要观点如下: 有人认为,RTX 3090 在性能和价格方面目前仍是一个不错的选择。比如,有人表示自己经过类似的抉择过程,最终选择了 3090,认为它是性价比的最佳平衡点。 也有人提到,虽然 5090 有 32GB 显存,但价格大幅提升,驱动也不稳定,实际效果提升有限。 还有人指出,3090 搭配 2 个 3060 也是一个值得考虑的方案,在某些情况下能满足需求且成本相对较低。
有人分享道:“我实际上从事 AI 工作。不是因为工作需要,就算不在这个领域工作,这也是个爱好。其他人旅游、外出喝酒或拥有豪车,我则有自己的家庭实验室。”
有用户称:“3090 + 2x 3060 是个值得考虑的选项,如果主板有 3 个快速的 PCIe x16 插槽。对于稳定扩散等应用,有一张性能较强的卡,再加上较便宜的卡来增加 VRAM 用于 LLM 是不错的。”
有人提到:“对于 24GB VRAM 且性能良好的选择,实际上有效的就是 3090,或者多个小显存的卡,但会面临性能损失和其他成本增加的问题,要么就祈祷有更好的选择。”
有人表示:“我从 RTX 3050 到 RTX 3060 再到 RTX 3090,3090 确实是生成式 AI(文本、图像、音频、视频)的最佳选择。”
然而,也有人认为 820 欧元买一个二手的太贵,还有人觉得可以选择其他替代方案,如 A5000 或者等待新的 GPU 产品上市。
在这场讨论中,关于 RTX 3090 是否仍是运行本地 LLM 和扩散模型的性价比之王,大家各抒己见。究竟该如何抉择,还需根据个人的实际需求和预算来决定。
感谢您的耐心阅读!来选个表情,或者留个评论吧!