原贴链接

我看了一些人的建议,他们说现在的支持比一年前好多了。但这是否足以让我将AMD的集成显卡或独立显卡用于语音合成(TTS)、英伟达Canary 1b(语音转文本STT)、NV - embed - v2(英伟达)、通义千问视觉版(qwen vl)和佛罗伦萨2(florence2)呢?然后还有其他标准的大型语言模型,以及像Flux和Cogvideo这样的图像生成模型。我只是不想花钱买任何会破坏我的流程的东西,然后退货并浪费时间。如果英伟达的模型与AMD不兼容,我不介意将其替换为类似的模型。任何帮助都将不胜感激。谢谢。

讨论总结

原帖询问AMD和rocm是否仍存在问题以及支持是否变好,评论者们从各自的使用经验出发进行讨论。主题围绕AMD和rocm在不同场景下的表现,包括不同Linux发行版、不同模型运行情况、与Nvidia的对比等。总体氛围既有肯定AMD和rocm情况在改善的声音,也有指出AMD存在诸多问题的反对声音。

主要观点

  1. 👍 AMD和rocm的情况在改善,特别是在Linux系统上
    • 支持理由:如xSnoozy提到在Linux上感觉情况变好;有评论者称在Fedora下安装rocm简单且相关软件配合良好等。
    • 反对声音:部分评论者指出AMD仍存在很多问题,如LoafyLemon表示安装ROCm依旧是噩梦等。
  2. 🔥 在AMD硬件上进行机器学习存在诸多问题
    • 正方观点:LoafyLemon指出AMD存在内存使用高、部分模型不能运行、驱动崩溃等多方面问题,在机器学习方面不推荐使用。
    • 反方观点:有评论者表示AMD的支持在日益变好,如自己摆弄7900xt时能看到每天的改进。
  3. 💡 不同Linux发行版对AMD和rocm的支持情况不同
    • 解释:如在Debian上设置存在问题,在Ubuntu和Nixos上设置虽困难但设置好后可正常工作等。
  4. 💥 AMD在某些项目上与Nvidia相比存在差距
    • 解释:有评论者将AMD与Nvidia对比,认为在支持方面AMD处于’B’级,Nvidia处于’A’级。
  5. 🤔 如果工作对组件冗余要求高,AMD目前不能满足
    • 解释:有评论者提到工作高度依赖组件冗余运行时,AMD目前还达不到要求。

金句与有趣评论

  1. “😂 Installing ROCm is still a nightmare.”
    • 亮点:生动地表达出安装ROCm的困难程度。
  2. “🤔 It is indeed better by the day.”
    • 亮点:简单地表明AMD的支持在逐渐变好。
  3. “👀 I haven’t found a LLM I couldn’t run with llama.cpp and open webui, though I haven’t tried multimodal models.”
    • 亮点:说明在特定情况下多数LLM可以运行,同时指出未尝试的部分。
  4. “😎 It seems with ROCM you are more limited on what you can use for inference.”
    • 亮点:明确指出ROCM在推理方面存在限制。
  5. “💡 I would just use a cloud nvidia instance to do it.”
    • 亮点:表明在进行严肃设置工作时会选择英伟达实例。

情感分析

总体情感倾向比较复杂,既有积极的方面也有消极的方面。积极方面是部分用户认为AMD和rocm的情况在改善;消极方面如有的用户认为AMD存在很多问题,甚至表达出AMD顽固愚蠢的观点。主要分歧点在于AMD是否能满足用户需求,在不同的使用场景(如机器学习、模型运行等)下AMD的表现是否合格。可能的原因是不同用户的使用场景、硬件配置以及对AMD的期望不同。

趋势与预测

  • 新兴话题:不同系统下AMD硬件与软件的适配优化可能会成为后续讨论的话题,比如如何更好地在Archlinux容器中运行相关模型。
  • 潜在影响:如果AMD在支持和性能方面不能得到有效提升,可能会影响其在机器学习等领域的市场份额;如果能改进,可能会吸引更多用户,从而对相关硬件市场格局产生影响。

详细内容:

标题:AMD 与 ROCm 的支持现状在 Reddit 引发热议

近日,Reddit 上一则关于“AMD and rocm still having problems or the support is better now?”的帖子引起了广泛关注,获得了众多点赞和大量评论。该帖子主要探讨了在机器学习和人工智能领域,使用 AMD 的 IGPU 或 GPU 与各种模型和软件的兼容性及支持情况,用户担心投入资金后因兼容性问题浪费时间和精力。

讨论焦点与观点分析:

  • 有人指出,使用 ROCm 进行推理存在一定限制,如 Llama.cpp 似乎运行良好,但仍需进一步测试。
  • 有人在安装 MI60 时遭遇了严重的 bug,通过特定操作才解决。
  • 有人认为在 Linux 环境下,AMD 与相关软件的运行不应有问题,但实际情况并非如此。
  • 有人分享在 Debian 12 上安装 ROCm 的经历,过程困难且最终放弃。
  • 有人表示在 Ubuntu 上安装 ROCm 较为顺利,部分软件和模型能够正常运行,但尚未尝试 Flux 等。
  • 有人指出安装 ROCm 在 Ubuntu 上较为轻松,只需按照官方文档的几条命令操作即可。
  • 有人提及 AMD 7900 XTX 在安装 ROCm 时存在诸多问题,如 FlashAttention 无法工作、内存使用过高、模型不兼容、输出乱码、驱动崩溃、性能不如 RTX 3090 等,认为 AMD 的支持几乎不存在,并已回归 Nvidia。但也有人表示可以使用 7900xtx 进行模型训练,只是存在部分问题。
  • 有人认为部分问题是普遍存在的,不仅限于 AMD,如随机出现的乱码。
  • 有人分享在 Fedora 上使用的情况,认为其对 ROCm 的打包方便了安装。

总体而言,对于 AMD 与 ROCm 的支持情况,用户观点不一。有人认为其在逐渐改善但仍存在诸多问题,有人则表示安装和使用较为顺利。但无论如何,这一话题仍在持续引发讨论,也让更多用户在选择相关产品时更加谨慎和深思。