硬件与部署 本地部署方案

构建保护AI隐私的操作系统

[针对一款宣称保护AI隐私的开源主权云操作系统Olares,评论者对其定义、隐私性、实用性等方面存在质疑,也有少数人看好该项目,整体氛围以质疑为主]

 ·  · 
硬件与部署 推理速度优化

AMD MI60与vLLM助力Llama3.3 70B达20 tokens/s

[原帖分享2x AMD MI60使Llama3.3 70B达到20 tokens/s的成果,评论涉及AMD卡的意义、技术问题、硬件选择等,整体氛围积极且充满技术探讨]

 ·  · 
硬件与部署 内存需求

Llama-3.2-3B-Instruct-abliterated需35GB显存

[原帖讲述Llama - 3.2 - 3B - Instruct - abliterated模型VRAM使用异常,评论给出多种观点如与上下文大小有关、可能是未释放资源、模型在做特殊尝试等及相应解决建议,整体氛围积极探讨问题]

 ·  · 
硬件与部署 硬件选择

双3090性能接近理想但仍有不足

[原帖作者觉得2张3090显卡运行相关程序接近理想但仍有不足,评论者围绕3090显卡硬件、不同模型选择、硬件升级等方面展开讨论,整体氛围专注于技术交流]

 ·  · 
硬件与部署 性能对比

Test - Time Compute模型是否使M系列Mac不再适合运行大型语言模型

[原帖探讨M系列Mac因Test - Time Compute模型引入是否不再适合运行LLMs,评论从性能、功率、使用体验、硬件对比等多方面展开讨论,整体氛围理性且多元]

 ·  · 
硬件与部署 硬件选择

12GB 3080上的混元FP8可在10分钟内生成移动端质量的GIF

[该讨论围绕Hunyuan和LTX在视频生成方面展开,涉及速度、硬件兼容性等,还讨论到二者在动漫图像、成人内容创作上的比较]

 ·  · 
硬件与部署 硬件选择

本地大语言模型使用案例与所用硬件

[原帖询问本地LLM使用案例与硬件投入的成本效益,评论者从隐私、工作、学习、娱乐等多方面阐述本地LLM使用场景,同时也涉及硬件配置和成本效益相关讨论]

 ·  · 
硬件与部署 其他

应采用集群推理

[原帖提出应进行群集推理,评论从不同角度如技术可行性、相关项目、潜在问题等展开讨论,氛围较为多元既有支持也有反对]

 ·  · 
硬件与部署 其他

MI300X、H100、H200训练基准测试:CUDA仍具优势(上)

[这是一个关于MI300X、H100和H200基准测试训练部分的讨论,涉及AMD训练的问题、GPU推理表现、AMD的硬件软件差距、现状及性能成本,还包含对后续文章的期待等内容,整体氛围较为理性且充满希望]

 ·  · 
硬件与部署 硬件选择

RTX 5090(32GB显存)可运行哪些模型

[原帖询问RTX 5090(32GB显存)能运行哪些模型,评论主要围绕模型运行情况、硬件对比选择、显存容量影响等方面展开,整体氛围较理性探讨]

 ·  ·