M4 MAX Pro、M2与NVIDIA RTX 3090性能对比 - 出乎意料
[原帖对比M4 MAX Pro、M2和NVIDIA RTX 3090性能,RTX 3090性能未达预期,评论者们从设备设置、模型运行等多方面分析原因,同时存在对ollama的负面评价和相关技术交流。]
[原帖对比M4 MAX Pro、M2和NVIDIA RTX 3090性能,RTX 3090性能未达预期,评论者们从设备设置、模型运行等多方面分析原因,同时存在对ollama的负面评价和相关技术交流。]
[围绕AMD Ryzen AI Max+ 395比4090快2.2倍这一说法展开讨论,涉及性能、价格、显存、内存等多方面因素,有支持也有质疑,整体氛围热烈且充满争议]
[原帖宣布AMD新CPU性能,评论对其与4090比较存疑,从价格、内存带宽、测试合理性等多方面展开讨论,整体氛围较理性]
[Hugging Face对Llama 3.2 3B预训练在数学任务上有提升,评论者围绕模型性能改进、预训练概念、指令遵循能力等方面提出疑问、质疑和希望改进之处,整体氛围充满探索性。]
[围绕AMD在CES 2025上某产品运行LLama 3.1 70B - Q4相比RTX 4090 24GB快2.2倍展开讨论,涉及对数据真实性、是否营销骗局、硬件性能比较、成本、架构等多方面内容,氛围有疑惑也有理性分析]
[帖子探讨DeepSeek V3在llama.cpp中的token生成性能与提示长度关系,评论从不同角度如硬件设置、缓存、采样器等进行技术讨论,整体氛围专注于技术交流,有分享、疑问和少量争议。]
[原帖作者分享自己用于LLMs/AI实验的设备配置并询问在24Gb限制下大家使用的模型,评论者们从模型推荐、性能、量化、运行速度等方面给出了各自的看法与经验,还涉及到特定硬件相关的讨论。]
[帖子介绍ScreenSpot - Pro,评论者有赞同、好奇、疑问等态度,还提出了相关建议和不同观点]
[原帖询问何时使用两块GPU更好,评论围绕LM studio是否默认启用第二块GPU、Ollama能否在RX6600上运行、不同场景下使用单或双GPU的优劣等话题展开,氛围较为理性探讨]
[帖子对多个LLM模型进行比较/测试,评论围绕模型表现、测试准确性、特定模型评价、基准测试选择、模型盈利模式等方面展开,整体氛围以理性探讨为主]