我看了一些人的建议,他们说现在的支持比一年前好多了。但这是否足以让我将AMD的集成显卡或独立显卡用于语音合成(TTS)、英伟达Canary 1b(语音转文本STT)、NV - embed - v2(英伟达)、通义千问视觉版(qwen vl)和佛罗伦萨2(florence2)呢?然后还有其他标准的大型语言模型,以及像Flux和Cogvideo这样的图像生成模型。我只是不想花钱买任何会破坏我的流程的东西,然后退货并浪费时间。如果英伟达的模型与AMD不兼容,我不介意将其替换为类似的模型。任何帮助都将不胜感激。谢谢。
讨论总结
原帖询问AMD和rocm是否仍存在问题以及支持是否变好,评论者们从各自的使用经验出发进行讨论。主题围绕AMD和rocm在不同场景下的表现,包括不同Linux发行版、不同模型运行情况、与Nvidia的对比等。总体氛围既有肯定AMD和rocm情况在改善的声音,也有指出AMD存在诸多问题的反对声音。
主要观点
- 👍 AMD和rocm的情况在改善,特别是在Linux系统上
- 支持理由:如xSnoozy提到在Linux上感觉情况变好;有评论者称在Fedora下安装rocm简单且相关软件配合良好等。
- 反对声音:部分评论者指出AMD仍存在很多问题,如LoafyLemon表示安装ROCm依旧是噩梦等。
- 🔥 在AMD硬件上进行机器学习存在诸多问题
- 正方观点:LoafyLemon指出AMD存在内存使用高、部分模型不能运行、驱动崩溃等多方面问题,在机器学习方面不推荐使用。
- 反方观点:有评论者表示AMD的支持在日益变好,如自己摆弄7900xt时能看到每天的改进。
- 💡 不同Linux发行版对AMD和rocm的支持情况不同
- 解释:如在Debian上设置存在问题,在Ubuntu和Nixos上设置虽困难但设置好后可正常工作等。
- 💥 AMD在某些项目上与Nvidia相比存在差距
- 解释:有评论者将AMD与Nvidia对比,认为在支持方面AMD处于’B’级,Nvidia处于’A’级。
- 🤔 如果工作对组件冗余要求高,AMD目前不能满足
- 解释:有评论者提到工作高度依赖组件冗余运行时,AMD目前还达不到要求。
金句与有趣评论
- “😂 Installing ROCm is still a nightmare.”
- 亮点:生动地表达出安装ROCm的困难程度。
- “🤔 It is indeed better by the day.”
- 亮点:简单地表明AMD的支持在逐渐变好。
- “👀 I haven’t found a LLM I couldn’t run with llama.cpp and open webui, though I haven’t tried multimodal models.”
- 亮点:说明在特定情况下多数LLM可以运行,同时指出未尝试的部分。
- “😎 It seems with ROCM you are more limited on what you can use for inference.”
- 亮点:明确指出ROCM在推理方面存在限制。
- “💡 I would just use a cloud nvidia instance to do it.”
- 亮点:表明在进行严肃设置工作时会选择英伟达实例。
情感分析
总体情感倾向比较复杂,既有积极的方面也有消极的方面。积极方面是部分用户认为AMD和rocm的情况在改善;消极方面如有的用户认为AMD存在很多问题,甚至表达出AMD顽固愚蠢的观点。主要分歧点在于AMD是否能满足用户需求,在不同的使用场景(如机器学习、模型运行等)下AMD的表现是否合格。可能的原因是不同用户的使用场景、硬件配置以及对AMD的期望不同。
趋势与预测
- 新兴话题:不同系统下AMD硬件与软件的适配优化可能会成为后续讨论的话题,比如如何更好地在Archlinux容器中运行相关模型。
- 潜在影响:如果AMD在支持和性能方面不能得到有效提升,可能会影响其在机器学习等领域的市场份额;如果能改进,可能会吸引更多用户,从而对相关硬件市场格局产生影响。
详细内容:
标题:AMD 与 ROCm 的支持现状在 Reddit 引发热议
近日,Reddit 上一则关于“AMD and rocm still having problems or the support is better now?”的帖子引起了广泛关注,获得了众多点赞和大量评论。该帖子主要探讨了在机器学习和人工智能领域,使用 AMD 的 IGPU 或 GPU 与各种模型和软件的兼容性及支持情况,用户担心投入资金后因兼容性问题浪费时间和精力。
讨论焦点与观点分析:
- 有人指出,使用 ROCm 进行推理存在一定限制,如 Llama.cpp 似乎运行良好,但仍需进一步测试。
- 有人在安装 MI60 时遭遇了严重的 bug,通过特定操作才解决。
- 有人认为在 Linux 环境下,AMD 与相关软件的运行不应有问题,但实际情况并非如此。
- 有人分享在 Debian 12 上安装 ROCm 的经历,过程困难且最终放弃。
- 有人表示在 Ubuntu 上安装 ROCm 较为顺利,部分软件和模型能够正常运行,但尚未尝试 Flux 等。
- 有人指出安装 ROCm 在 Ubuntu 上较为轻松,只需按照官方文档的几条命令操作即可。
- 有人提及 AMD 7900 XTX 在安装 ROCm 时存在诸多问题,如 FlashAttention 无法工作、内存使用过高、模型不兼容、输出乱码、驱动崩溃、性能不如 RTX 3090 等,认为 AMD 的支持几乎不存在,并已回归 Nvidia。但也有人表示可以使用 7900xtx 进行模型训练,只是存在部分问题。
- 有人认为部分问题是普遍存在的,不仅限于 AMD,如随机出现的乱码。
- 有人分享在 Fedora 上使用的情况,认为其对 ROCm 的打包方便了安装。
总体而言,对于 AMD 与 ROCm 的支持情况,用户观点不一。有人认为其在逐渐改善但仍存在诸多问题,有人则表示安装和使用较为顺利。但无论如何,这一话题仍在持续引发讨论,也让更多用户在选择相关产品时更加谨慎和深思。
感谢您的耐心阅读!来选个表情,或者留个评论吧!