来源:[https://www.storagereview.com/review/nvidia - geforce - rtx - 5090 - review - pushing - boundaries - with - ai - acceleration](https://www.storagereview.com/review/nvidia - geforce - rtx - 5090 - review - pushing - boundaries - with - ai - acceleration),以及两个图片链接https://llminfo.image.fangd123.cn/images/viyw7xmqkree1.png!/format/webp和https://preview.redd.it/mumd1wmqkree1.png?width = 1608&format = png&auto = webp&s = 318bb83f4539fe28fd903026a2ad07ba033f9073
讨论总结
这个讨论主要聚焦于NVIDIA GeForce RTX 5090、4090和6000 ada的性能比较,特别是在LLM和图像生成方面。评论者从多个角度进行了分析,如性能提升幅度、显存大小的影响、不同情况下的计算瓶颈、多GPU训练中的P2P功能、能耗以及测试模型的选择等,同时也涉及到一些如购买决策、对评测的质疑等周边话题。
主要观点
- 👍 5090在LLMs上性能比4090提升约25 - 30%,图像生成方面提升约40%。
- 支持理由:根据Herr_Drosselmeyer的观点,这接近从规格上所预期的结果。
- 反对声音:无。
- 🔥 5090在小模型可能存在计算瓶颈。
- 正方观点:xflareon提到有人指出小模型通常是计算瓶颈,运行大模型或许能看到预期性能提升。
- 反方观点:无。
- 💡 测试应包含能耗因素,6000 ada在能耗方面有优势。
- 解释:评论者指出一个好的测试应该包含能耗方面的内容,并且6000 ada在取得相似结果的情况下能耗要少得多。
- 👍 32GB显存对某些模型能否装进显存影响巨大。
- 支持理由:Hoodfu表示32GB的显存对于他使用llama 3.2 11b fp16模型能否装进显存很关键。
- 反对声音:无。
- 🔥 DIGITS卖点是内存量而非速度。
- 正方观点:fallingdowndizzyvr认为DIGITS在性能上不具备竞争力,其卖点是内存量而非速度。
- 反方观点:无。
金句与有趣评论
- “😂 Herr_Drosselmeyer: So vs the 4090, it’s roughly 25 - 30% improvement on LLMs, roughly 40% on image generation. Close to what I expected from the specs.”
- 亮点:直接给出5090与4090在LLMs和图像生成方面性能提升的具体数据,并且与预期结果进行对比。
- “🤔 xflareon:Someone pointed out in another thread that typically very small models are compute bottlenecked, so if you’re running a larger model we may see the expected performance bump.”
- 亮点:对小模型存在计算瓶颈这一观点进行补充解释,提出运行大模型可能会看到性能提升。
- “👀 Hoodfu: Well, and for my uses 32gb is the difference between llama 3.2 11b fp16 fitting in vram or not, so the tokens/s difference between it and it overflowing into system ram is going to be huge.”
- 亮点:通过自身使用模型的实例,强调32GB显存对于模型装进显存的重要性。
情感分析
总体情感倾向较为中性,主要是理性地讨论技术问题。分歧点在于对不同显卡性能提升幅度的预期、某些技术因素(如计算瓶颈、显存等)对性能影响的看法以及不同产品(如DIGITS)的性能和卖点等方面。可能的原因是不同评论者的使用场景、对技术的理解程度以及期望不同。
趋势与预测
- 新兴话题:对NVIDIA未来使用2nm晶体管尺寸时下一代GPU(如6090)与5090的性能比较。
- 潜在影响:可能会影响消费者对未来显卡产品的期待和购买决策,也可能会对相关的人工智能、图像生成等领域的硬件选择产生影响。
详细内容:
标题:Reddit 上关于 NVIDIA GeForce RTX 5090 性能讨论热度高
最近,Reddit 上一则关于 NVIDIA GeForce RTX 5090 与 4090 和 6000 ada 性能对比的帖子引起了广泛关注。该帖子包含了众多相关链接,如https://www.storagereview.com/review/nvidia-geforce-rtx-5090-review-pushing-boundaries-with-ai-acceleration 以及https://forum.level1techs.com/t/nvidia-rtx-5090-has-launched/2245 ,获得了大量的点赞和众多评论。帖子中提到,初看 RTX 5090 对于小型模型,似乎存在计算限制,仅能获得 30%的性能提升;对于大型模型,内存带宽可能发挥作用,理论上速度最高可快 80%,但目前还没有很多好的基准测试。
在讨论中,主要观点如下: 有人认为,鉴于内存带宽的增加,本应期待 5090 每秒能生成更多的令牌,比如 60 - 80%,但实际情况并非如此,可能存在不是内存带宽的瓶颈,或者是模型基准测试的方式有问题。 也有人指出,小型模型通常是计算瓶颈,如果运行更大的模型,可能会看到预期的性能提升,希望能有更多相关测试。 还有用户分享个人经历,比如对于“[Hoodfu]”来说,32GB 是决定 llama 3.2 11b fp16 是否能适配 VRAM 的关键,这对性能影响巨大。
对于性能提升未达预期,有人认为可能存在数学限制,比如内存速度和芯片数量增加后,总带宽并非简单叠加。
关于不同精度性能,有人提到 FP8 和 FP4 的性能未包含在上述测试中,也有人质疑在 LLM 社区是否真有人会使用 FP8 和 FP4,以及为何量化到这些变体如此困难且耗时。
在多 GPU 训练方面,大家也进行了热烈讨论,有人期待 5090 能像 4090 一样解锁 P2P 自定义驱动,有人则认为这需要时间,甚至可能会使保修失效。
关于 RTX 6000 Blackwell 96GB 的情况,虽然其尚未发布,但有人认为其可能更注重效率,存在性能损失,且价格可能较高。
对于测试中使用的模型,如 llama2 等,也有用户提出质疑,认为其选择奇怪。
在是否购买 5090 还是等待 PROJECT DIGITS 基准测试的问题上,有人认为 DIGITS 的卖点是内存量而非速度,而有人则认为没有必要急于花钱,可等待二手 GPU 价格下降。
总之,Reddit 上关于 NVIDIA GeForce RTX 5090 的讨论丰富多样,涉及性能提升、模型选择、多 GPU 训练、新机型期待以及购买决策等多个方面,反映了大家对这款产品的高度关注和深入思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!