NVIDIA是否有可能制造一种新的(或者旧的,我不清楚)硬件来扩展显存(VRAM)呢?我假设PCIE插槽的数据传输速度是相同的,但如果这完全不可能的话,那我想问NVIDIA能否制造一个专用的人工智能模块而不是显卡呢?看起来这种东西的市场可能不大,但他们难道不能定一个不错的价格然后小批量生产吗?看起来32GB的显存相对于我们现在的存储选项来说相当小了,但我不知道也许它们的运行速度使得制造成本更高?非常好奇在未来我们是否会得到真正的人工智能硬件还是继续使用现有的硬件。
讨论总结
原帖探讨NVIDIA能否制造VRAM扩展硬件或专用AI硬件,评论从多方面进行讨论。部分人从技术角度如带宽、距离、信号完整性等方面指出难以实现,也有人从商业角度如市场利润、NVIDIA的生产策略等方面分析NVIDIA没有动力去做,不过也存在少数人认为NVIDIA有能力做只是做的人比较少。整体氛围比较理性、专业,大家基于自己的知识和经验进行探讨。
主要观点
- 👍 NVIDIA存在利用VRAM限制用户的情况
- 支持理由:VRAM不足时,用户只能加倍使用GPU或购买新GPU,英伟达借此引导用户消费。
- 反对声音:无。
- 🔥 从其他PCIe插槽获取VRAM数据的方式速度慢且无意义
- 正方观点:PCIe连接带宽低,数据传输慢,与GPU高速的带宽需求不匹配。
- 反方观点:无。
- 💡 NVIDIA若推出更多VRAM的显卡会损害高端市场利润
- 解释:如果有更多VRAM的低价卡,会冲击高端市场的销售,NVIDIA不会做损害自身利益的事。
- 💡 PCIE速度远低于低端入门级独立显卡应有的速度
- 解释:对比两者速度数据,PCIE速度很慢,无法满足扩展VRAM需求。
- 💡 如果NVIDIA制作VRAM扩展或专用AI模块会使专业卡和加速器失去价值
- 解释:新模块会替代现有专业卡和加速器的功能,从而使其失去价值。
金句与有趣评论
- “😂 That is one of Nvidia’s dirty tricks - they know you want more VRAM. They know you don’t have too many options around that, so they VRAM starve you so you either "double" your GPUs, or buy a newer series GPU with +10% VRAM.”
- 亮点:形象地指出NVIDIA可能利用VRAM限制用户的手段。
- “🤔 PCIe 5.0x16 has a maximum bandwidth of 63.015 GB/s. An RTX 5090 has a maximum VRAM bandwidth of 1790 GB/s. So even over PCIe 5.0x16 the PCIe bandwidth is approximately 1/28.4 (3.52%) of the VRAM bandwidth of an RTX 5090.”
- 亮点:通过数据对比直观展示PCIE带宽与RTX 5090的VRAM带宽的差距。
- “👀 Nvidia doesn’t want, and has said, that it won’t expand production capabilities due to temporary increases in demand.”
- 亮点:说明NVIDIA不会因需求临时增长而扩大生产能力的决策。
情感分析
总体情感倾向较为理性中立。主要分歧点在于NVIDIA是否有能力和动力去做VRAM扩展或制造专用AI硬件。可能的原因是大家从不同角度如技术、商业等出发,拥有不同的知识背景和对NVIDIA的理解。
趋势与预测
- 新兴话题:PCIe被CXL取代后的情况以及对VRAM扩展的影响。
- 潜在影响:如果NVIDIA改变策略进行VRAM扩展或制造专用AI硬件,可能会影响显卡市场的价格和用户的购买选择,也可能对AI硬件发展产生推动作用。
详细内容:
标题:关于 NVIDIA 能否扩展 VRAM 及相关硬件的热门讨论
在 Reddit 上,一则题为“Is it not possible for NVIDIA to make VRAM extensions for other PCIE slots? Or other dedicated AI hardware?”的帖子引发了广泛关注。该帖探讨了 NVIDIA 能否为其他 PCIE 插槽制作 VRAM 扩展,或者推出专用的 AI 模块而非显卡,并对市场需求和技术可行性提出了疑问。此帖获得了众多点赞和大量评论。
讨论的焦点主要集中在 NVIDIA 是否故意限制消费者级 GPU 的 VRAM 容量以获取更高利润,以及技术上实现扩展的可能性。有人指出,每增加一毫米的 VRAM 芯片与 GPU 晶体之间的距离都会严重延迟吞吐量,以往的尝试都未成功,目前较为可行的方式是 GPU 堆叠或 GPU+CPU 推理使用 VRAM+RAM。也有人认为,NVIDIA 利用其在市场的垄断地位,通过限制 VRAM 来迫使消费者购买更高级的产品。
例如,有用户分享道:“Back in 90’s-00’s, GPUs used to have extendable VRAMs. But since then, it was proven to be pointless.” 还有用户表示:“Number 3 is so true. If you are a functional monopoly in an area where demand is surging, why would you improve your product instead of just making your customers buy more and at even higher margins?”
然而,也有观点认为 NVIDIA 并非故意使坏,而是将资源和制造能力更多地投入到数据中心 GPU 上,毕竟其数据中心 GPU 销售占据了绝大部分收入。
对于扩展 VRAM 的技术难度和成本,各方也争论不休。有人认为,加倍 NVIDIA 消费级显卡的 VRAM 配置成本低于 30 美元,但也有人反驳称实际成本远超 30 美元。
同时,讨论中还提到了 AMD 在 VRAM 方面的表现,以及其他相关的技术和市场因素。
总的来说,这场讨论展现了大家对 NVIDIA 产品策略和技术发展的关注与思考,也揭示了行业内存在的竞争与挑战。未来,我们期待看到 NVIDIA 如何回应消费者的需求,以及整个行业在 VRAM 及相关硬件方面的发展趋势。
感谢您的耐心阅读!来选个表情,或者留个评论吧!