硬件与部署 性能对比

M4 MAX Pro、M2与NVIDIA RTX 3090性能对比 - 出乎意料

[原帖对比M4 MAX Pro、M2和NVIDIA RTX 3090性能,RTX 3090性能未达预期,评论者们从设备设置、模型运行等多方面分析原因,同时存在对ollama的负面评价和相关技术交流。]

 ·  · 
硬件与部署 性能对比

AMD Ryzen AI Max+ 395速度比4090快2.2倍

[围绕AMD Ryzen AI Max+ 395比4090快2.2倍这一说法展开讨论,涉及性能、价格、显存、内存等多方面因素,有支持也有质疑,整体氛围热烈且充满争议]

 ·  · 
硬件与部署 性能对比

AMD在CES 2025宣布新款锐龙CPU用于笔记本,运行70B(q4)比4090桌面独立GPU快两倍

[原帖宣布AMD新CPU性能,评论对其与4090比较存疑,从价格、内存带宽、测试合理性等多方面展开讨论,整体氛围较理性]

 ·  · 
模型与技术 性能对比

Hugging Face对Llama 3.2 3B持续预训练在数学任务上提升2 - 3倍

[Hugging Face对Llama 3.2 3B预训练在数学任务上有提升,评论者围绕模型性能改进、预训练概念、指令遵循能力等方面提出疑问、质疑和希望改进之处,整体氛围充满探索性。]

 ·  · 
硬件与部署 性能对比

使用Llama 3.1 70B - Q4时每秒处理标记速度比RTX 4090 24GB快2.2倍

[围绕AMD在CES 2025上某产品运行LLama 3.1 70B - Q4相比RTX 4090 24GB快2.2倍展开讨论,涉及对数据真实性、是否营销骗局、硬件性能比较、成本、架构等多方面内容,氛围有疑惑也有理性分析]

 ·  · 
模型与技术 性能对比

深擎V3在llama.cpp中的令牌生成性能与提示长度的关系

[帖子探讨DeepSeek V3在llama.cpp中的token生成性能与提示长度关系,评论从不同角度如硬件设置、缓存、采样器等进行技术讨论,整体氛围专注于技术交流,有分享、疑问和少量争议。]

 ·  · 
模型与技术 性能对比

24Gb内存可适配的大型语言模型

[原帖作者分享自己用于LLMs/AI实验的设备配置并询问在24Gb限制下大家使用的模型,评论者们从模型推荐、性能、量化、运行速度等方面给出了各自的看法与经验,还涉及到特定硬件相关的讨论。]

 ·  · 
模型与技术 性能对比

ScreenSpot - Pro:用于专业高分辨率计算机使用的GUI基础

[帖子介绍ScreenSpot - Pro,评论者有赞同、好奇、疑问等态度,还提出了相关建议和不同观点]

 ·  · 
硬件与部署 性能对比

双GPU运行的更佳时机

[原帖询问何时使用两块GPU更好,评论围绕LM studio是否默认启用第二块GPU、Ollama能否在RX6600上运行、不同场景下使用单或双GPU的优劣等话题展开,氛围较为理性探讨]

 ·  · 
模型与技术 性能对比

深度寻求V3、QVQ - 72B预览版、猎鹰3 10B、羊驼3.3 70B、神经电子70B在更新的MMLU - Pro CS基准测试中的大语言模型比较/测试

[帖子对多个LLM模型进行比较/测试,评论围绕模型表现、测试准确性、特定模型评价、基准测试选择、模型盈利模式等方面展开,整体氛围以理性探讨为主]

 ·  ·